Фотоматериалы

Фотографии с мероприятий, организуемых при участии СВОП.

Видеоматериалы

Выступления членов СВОП и мероприятия с их участием: видео.

Проекты

Масштабные тематические проекты, реализуемые СВОП.

Home » Главная, Новости

О ПОЛИТИЧЕСКИХ РИСКАХ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: «ЭТО ПРИГОВОР»

29.08.2023 – 00:06 Без комментариев

Владимир Овчинский

Московский Комсомолец

«Надо брать под контроль создателей, производителей и особенно — распространителей ИИ»


Ученые ужаснулись своему детищу — искусственный интеллект (ИИ) становится вполне самостоятельным, самодостаточным, самосовершенствующимся и даже самовоспроизводящимся субъектом. По смелым прогнозам, человек ему, по сути, уже не нужен и будет только в тягость со своими наивными попытками установить над ним контроль. А значит, однажды ИИ вполне логично может счесть, что обойдется без человека. Как эксперты предлагают избежать столь мрачной перспективы, рассказал советник министра внутренних дел России, генерал-майор милиции в отставке, доктор юридических наук, заслуженный юрист РФ, почетный сотрудник МВД РФ, экс-руководитель российского Центрального бюро Интерпола, автор книг по борьбе с организованной преступностью Владимир Овчинский.

– Действительно ли человечеству грозит пресловутое «восстание машин»? Что, искусственный интеллект надо срочно и кардинально брать под контроль?

– Не исключаю и такой исход. Но на самом деле в первую очередь надо брать под контроль создателей, производителей и особенно — распространителей искусственного интеллекта. Именно они представляют наибольшую угрозу, причем, иногда даже не осознавая это.

– Разве так бывает?

– Увы, это уже произошло. В издании Foreign Affairs опубликована статья, а, по существу, манифест специализирующегося на международных политических рисках американского политолога Яна Бреммера (он президент консалтинговой компании по политическим рискам Eurasia Group) и гендиректора стартапа в области машинного обучения Inflection AI Мустафы Сулеймана «Парадокс силы искусственного интеллекта».

Там без обиняков предлагается «разработать новую структуру управления, подходящую для этой уникальной технологии. Если глобальное управление ИИ станет возможным, международная система должна отказаться от традиционных концепций суверенитета и приветствовать технологические компании за столом переговоров. Эти субъекты могут не получать легитимность от общественного договора, демократии или предоставления общественных благ, но без них у эффективного управления ИИ не будет шансов. Это один из примеров того, как международному сообществу необходимо будет переосмыслить основные предположения о геополитическом порядке».

– То есть, прозвучало прямое предложение сформировать «мировое правительство»? Что это — очередная конспирологическая версия «масонского заговора»?

– Конспирология, полагаю, тут не причем. По мнению авторов, «подобно прошлым технологическим волнам, ИИ будет сочетать невероятный рост и возможности с огромными разрушениями и рисками. Но в отличие от предыдущих волн, он также инициирует сейсмический сдвиг в структуре и балансе мировой власти, поскольку угрожает статусу национальных государств как основных мировых геополитических сил. Признают они это или нет, но создатели ИИ сами являются геополитическими силами, и их суверенитет над ИИ еще все больше укрепляет зарождающийся «технополярный» порядок, в котором технологические компании обладают такой властью в своих владениях, которая когда-то была зарезервирована за национальными государствами.

– Владимир Семенович, это звучит как приговор существующему миропорядку…

– Появление искусственного интеллекта — уже приговор нынешнему, такому уютному для всех миру. Это сравнимо с изобретением стали, пороха и ядерного оружия. Теперь пришло время ИИ.

За последнее десятилетие крупные технологические фирмы фактически стали независимыми, суверенными игроками в созданных ими цифровых сферах. ИИ ускоряет эту тенденцию и расширяет ее далеко за пределы цифрового мира. Сложность технологии, утверждают Бреммер и Сулейман, и скорость ее развития сделают почти невозможным для правительств принятие соответствующих правил в разумные сроки: «Если правительства не наверстают упущенное в ближайшее время, возможно, они никогда этого не сделают». А они, боюсь, этого не наверстают.

– Власть на планете захватят технократы?

– Полагаю, они ее уже захватили. Пусть даже сами и не до конца это понимают. Впрочем, как пишут авторы, к счастью, политики во всем мире (?) начали осознавать проблемы, связанные с искусственным интеллектом, и ломать голову над тем, как им управлять. В мае этого года «Большая семерка» запустила «Хиросимский процесс ИИ» — форум, посвященный гармонизации управления ИИ. В июне Европарламент принял проект Закона ЕС об искусственном интеллекте, что стало первой комплексной попыткой Евросоюза установить меры безопасности в отношении индустрии искусственного интеллекта. А в июле генсек ООН Антониу Гутерриш призвал к созданию глобального органа по надзору за регулированием ИИ.

Но, предупреждают эксперты, «к сожалению, слишком много споров об управлении ИИ остается в ловушке опасной ложной дилеммы: использовать искусственный интеллект для расширения национальной власти или подавить его, чтобы избежать рисков. Даже те, кто точно диагностирует проблему, пытаются решить ее, впихивая ИИ в существующие или исторические структуры управления. Тем не менее, искусственным интеллектом нельзя управлять, как любой предыдущей технологией, и он уже меняет традиционные представления о геополитической власти».

– Как это — нельзя управлять собственным созданием?

– Видите ли, тут не действует рецепт создателей культового советского фильма «Формула любви». Помните, там кузнец, взявшийся быстро сломать карету графа Калиостро, самоуверенно утверждал, что все, созданное человеком, им же может быть и разрушено? И он — в кино — это убедительно доказал, карету сломал (что, собственно, там было ломать?).

В случае с искусственным интеллектом это не работает. По ряду причин.

И причины эти, как всегда, банальные — организационные. Обладателям этих технологий и действующим политикам — руководителям государств, — надо договориться, как принято говорить, «на берегу».

– О чем?

– Элементарно — о принципах режима управления искусственным интеллектом. Собственно, это — самое главное.

Бреммер и Сулейман считают, что есть три таких принципа, причем — дублирующих друг друга.

Первый — для установления фактов и информирования правительств о рисках, связанных с искусственным интеллектом.

Второй — для предотвращения всеобщей гонки вооружений между ними.

Третий — для управления разрушительными силами технологии, не похожей ни на что, что видел мир.

– Звучит, вроде, просто, но не совсем понятно. Образования не хватает…

– А тут, в принципе, все просто. Сложность только в создании самой технологии. А уж в ее массовом применении — нет проблем. Вспомните, из огнестрельного оружия стреляли и неграмотные европейские крестьяне (в благородных дворян-рыцарей!), и первобытные индейцы, африканцы и разные обитатели океанских островов… Тут надо всего лишь научиться правильно, в нужной последовательности подсыпать порох, загонять в ствол пулю и пыж (или же — вставлять патрон, обойму, магазин или ленту), нажимать рычаги и кнопки — зажигать фитиль или спускать курок, высекая искру из кремневого замка. Ну, или как там еще следует по технологии. И это устройство будет стрелять. Даже медведи ездят в цирке на мотоциклах!

– Тогда в чем разница?

– ИИ отличается от других технологий «всего лишь» по своему влиянию на мощность. Это не просто создает политические проблемы. Это парадокс силы ИИ. Когда компания OpenAI запустила свою первую большую языковую модель, известную как GPT-1, в 2018 году, у нее было 117 миллионов параметров — показатель масштаба и сложности системы. Пять лет спустя модель четвертого поколения компании, GPT-4, как полагают, имеет более триллиона. Объем вычислений, используемых для обучения самых мощных моделей ИИ, увеличивался в десять раз каждый год в течение последних десяти лет.

Иными словами, сегодня самые передовые модели ИИ, также известные как «пограничные» модели, в пять миллиардов раз превышают вычислительную мощность передовых моделей десятилетней давности. Обработка, которая раньше занимала недели, теперь происходит за секунды. В ближайшие пару лет появятся модели, способные обрабатывать десятки триллионов параметров. Модели «масштаба мозга» с более чем 100 триллионами параметров — примерно столько же синапсов в человеческом мозге — будут жизнеспособны в течение пяти лет.

Вскоре разработчикам ИИ, вероятно, удастся создать системы с самосовершенствующимися возможностями — наступает критический момент в развитии этой технологии, который должен заставить всех задуматься. Они смогут увеличить производительность всего, что угодно, в сотни раз (а может — и больше, мы этого пока даже не представляем). И еще во много раз дешевле.

– Но ведь для того, чтобы эти технологии ИИ использовать, ими, как минимум, надо обладать?

– Вот! В этом и ключ всей проблемы — в бесконтрольном распространении программного обеспечения.

Как и в случае с любым программным обеспечением или кодом, алгоритмы ИИ гораздо проще и дешевле копировать и делиться (или украсть), чем физические активы. Риски распространения очевидны. Мощная модель большого языка Llama-1, например, просочилась в Интернет через несколько дней после дебюта в марте 2023 года.

Хотя для работы самых мощных моделей по-прежнему требуется сложное аппаратное обеспечение, версии среднего класса могут работать на компьютерах, которые можно арендовать за несколько долларов в час. Вскоре такие модели будут работать и на смартфонах. Ни одна из столь мощных технологий не становилась настолько доступной и так быстро и широко распространенной.

– В чем опасность быстрого распространения такого всеобщего счастья?

– Тут не все — счастье. ИИ также отличается от старых технологий тем, что почти все они могут быть охарактеризованы как «двойного назначения» — имеющие как военное, так и гражданское применение. Многие системы по своей сути универсальны, и действительно, универсальность является основной целью многих компаний, занимающихся ИИ. Те же системы, которые управляют автомобилями, могут управлять, например, и танками. И не только. Приложение ИИ, созданное для диагностики заболеваний, может создать новое и превратить его в оружие. Системы искусственного интеллекта не похожи на автомобили или самолеты, которые построены на аппаратном обеспечении, поддающемся постепенным улучшениям, и чьи наиболее дорогостоящие сбои происходят в виде отдельных аварий. Они не похожи на химическое или ядерное оружие, которые трудно и дорого разрабатывать и хранить, не говоря уже о тайном распространении или развертывании.

По мнению Бреммера и Сулеймана, «поскольку новое поколение моделей ИИ распространяется быстрее, чем когда-либо, ядерное сравнение выглядит все более устаревшим». Более того, ущерб, который может нанести ИИ, не имеет очевидного предела, даже несмотря на то, что стимулы для его создания (и выгоды от этого) продолжают расти.

Дальше на горизонте скрываются обещания общего искусственного интеллекта (ОИИ), все еще неопределенная точка, в которой ИИ превосходит человека в выполнении любой поставленной задачи, и опасность (по общему признанию спекулятивной) того, что ОИИ может стать самоуправляемым, самовоспроизводящимся и самосовершенствующимся вне контроля человека, и спровоцировать непреднамеренную и неконтролируемую военную эскалацию, которая приведет к войне.

Авторы утверждают, что ИИ может буквально все: распространять дезинформацию, подрывать общественное доверие и (о, ужас!) демократию, насаждать тиранию, установить контроль и тотальную слежку за гражданами, уничтожить миллионы рабочих мест, усугубив существующее неравенство…

– Так что же мешает правительствам договориться о контроле за этими чудо-технологиями? Ведь о контроле над ядерными вооружениями худо-бедно договорились. И договоренности эти пока работают.

– В том-то и дело, что — пока. А вот насчет ИИ нет уверенности, что хоть какие-то договоренности будут достигнуты и что эти договоренности какое-то время проработают, да и вообще окажутся жизнеспособными.

– Откуда такой пессимизм?

– Все из той же статьи Бреммера и Сулеймана. Авторы напоминают, что достаточно одной пагубной или «прорывной» модели, чтобы посеять всеобщий хаос. По этой причине регулирование ИИ не может осуществляться лоскутным методом. В отдельных странах мало смысла в регулировании ИИ, если в других он остается нерегулируемым.

Тут смысл вот, в чем. У подавляющего большинства стран нет ни денег, ни технологических ноу-хау, чтобы конкурировать за лидерство в сфере ИИ. Но они нашли выход — вместо этого доступ к пограничному, то есть — самому передовому ИИ будет определяться их отношениями с горсткой уже богатых и могущественных корпораций или государств.

Подобно Интернету и смартфонам, ИИ будет распространяться независимо от границ. Более того, развитие ИИ движимо непреодолимыми стимулами: каждая нация, корпорация и отдельный человек захотят какую-то ее версию на свой вкус и потребности, не всегда, увы, созидательные и гуманные…

Да, не каждая страна, тем более — отдельный человек сможет разработать собственный вариант искусственного интеллекта. Зато приобрести его смогут многие. Причем самые разные модификации, сделанные на заказ под любые задачи — были бы деньги. И использовать его по своей прихоти. В том числе — для военных действий или терроризма. А вот это — не просто опасно, но даже и страшно. Авторы статьи утверждают, что, поскольку ИИ может так легко распространяться, в его управлении не должно быть пробелов.

– Вот тут-то и становится востребованной идея «мирового правительства»? Из кого оно должно формироваться?

– Бреммер и Сулейман полагают, что необходимо изменить структуру и глобальный баланс власти – между собой должны договориться политики и хозяева компаний, разрабатывающих технологии ИИ.

– И это возможно?

– Подобные попытки уже были. Авторы напоминают, что когда правительства проявляли политическую волю, они смогли внедрить режимы регулирования для новых технологий, такие как Общий регламент ЕС по защите данных, Закон о цифровых рынках и Закон о цифровых услугах. Но на то, чтобы такое регулирование материализовалось в ЕС, ушло десятилетие или больше, и оно до сих пор не полностью реализовано в Соединенных Штатах (а вот это замечание надо запомнить!). Разработан даже Закон ЕС об ИИ, который является самой амбициозной попыткой регулировать ИИ в любой юрисдикции. Но он будет применяться в полной мере только с 2026 года, когда модели ИИ – увы — будут усовершенствованы до неузнаваемости. И в чем тогда смысл этой затеи?

«ИИ движется слишком быстро, чтобы политики могли реагировать в своем обычном темпе», — сетуют авторы статьи.

Они считают, что правительства уже отстают. Бреммер и Сулейман долго, многословно рассуждают, как, кто и о чем должны договариваться о глобальном контроле над разработками и распространением ИИ, обсуждают параметры такого контроля и перспективы его внедрения. В общем, регуляторные усилия на сегодняшний день находятся в зачаточном состоянии.

И вот в этом потоке сознания всплывает интересная подробность: несмотря на декларируемую обязательность именно коллективного, всеобщего контроля над ИИ, все же самым главным контролером должны быть именно США. Все прочие – так, группа поддержки, необходимая для создания видимости легитимности процесса. Приводится пример важности такого контроля – действия администрации Байдена, которая пытается воспрепятствовать Китаю приобретать чипы для создания самых передовых моделей ИИ.

Страйк! — что и требовалось доказать.

– Получается, по этой идее «мировым правительством» все же должны стать США?

– Напрямую об этом, конечно, не говорится. Но, так или иначе, все сводится к технологическому, экономическому, а по сути, — военно-политическому противостоянию между США и Китаем. Кто будет полностью контролировать все процессы, связанные с ИИ, тот и станет властелином мира. И, разумеется, на эту роль претендуют американцы.

Как справедливо утверждают авторы, ИИ — это не просто еще один инструмент или оружие, которое может принести престиж, власть или богатство. Он может обеспечить значительное военное и экономическое преимущество над противниками.

Тут есть знаковые нюансы. Эта точка зрения предполагает, что государства могут установить и поддерживать хотя бы некоторый контроль над ИИ. Это может иметь место в Китае, который интегрировал свои технологические компании в структуру государства.

Тем не менее, на Западе и в других странах искусственный интеллект скорее подорвет государственную власть, чем укрепит ее. Вот поэтому и идет конфронтация не только между двумя сверхдержавами и экономиками, но и между социальными системами, идеологиями и, если хотите, философиями. Как ни крутите, Маркса и Энгельса никто не отменял. Ведь не факт, что любое абстрактное государство сумеет взять под контроль весьма могущественные частные технологические компании, у которых все, так сказать, ключи к ИИ. Вот и посмотрим, кто кого под себя подомнет.

– У вас есть прогнозы?

– Делать прогнозы – бесполезное и неблагодарное занятие, всегда в чем-то ошибешься. Я — не Глоба.

Скажу об очевидном. На текущий момент американцы явно проигрывают Китаю в технологической гонке XXI века. Это диагностировано многими экспертами международных организаций. Опять же, санкционные меры по сдерживанию Китая, в том числе и в отношении ИИ, привели к обратным результатам. Кстати, как и санкции против России, — спасибо Западу, мы начали восстанавливать свою промышленность.

И, как следствие, развитие конфликта вокруг Тайваня и в целом в Индо-Тихоокеанском регионе, тоже прогнозируется не в пользу США. Поэтому не очень умно, мягко говоря, выглядит вытащенная из нафталина концепция «мирового правительства», чтобы, якобы, глобально управлять ИИ.

Где гарантия у авторов этой комбинации, что это «мировое правительство» не возглавит Китай?

Беседовал Андрей Яшлавский

Метки: , , , , , , , , ,

Оставить комментарий!

Вы можете использовать эти теги:
<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>