Фотоматериалы

Фотографии с мероприятий, организуемых при участии СВОП.

Видеоматериалы

Выступления членов СВОП и мероприятия с их участием: видео.

Проекты

Масштабные тематические проекты, реализуемые СВОП.

Home » Главная, Новости

МИР МАШИННОГО РАЗУМА: ПОГУБИТ ЛИ НАС ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ?

23.11.2023 – 23:06 Без комментариев

Андрей Шитов

ТАСС

О том, ведет ли ИИ к генерации или дегенерации


Должен ли человек обладать правом на то, чтобы необходимую помощь или услугу ему оказывал другой человек, а не машина? Чтобы, скажем, при обращении в больницу, банк или центр обслуживания его выслушивал оператор, а не автоответчик? Чтобы общественным транспортом, которым он пользуется, управлял живой водитель, а не робот? И чтобы это было закреплено в законе? Такой вопрос поставил на Форуме этики в сфере искусственного интеллекта «Поколение GPT. Красные линИИ», прошедшем 16 ноября в ТАСС, видный российский правовед, профессор НИУ ВШЭ Михаил Федотов. На его взгляд, в нынешней ситуации вообще можно говорить о «новом поколении прав человека», включая и описанное «право на выбор», но более фундаментально — право на «ментальную неприкосновенность человека, неприкосновенность его духовного мира».

Вникая в вопросы именитого эксперта, не торопитесь сразу отвечать утвердительно. Вспомните, например, о давно привычных прообразах беспилотного транспорта в нашем быту — о лифтах. Ведь ими, как указал в ходе той же дискуссии директор по развитию технологий ИИ «Яндекса» Александр Крайнов, долго управляли лифтеры, без чьей помощи пассажиры не решались отправляться в поездку на другой этаж. Со временем профессия исчезла за ненадобностью, и вряд ли о ней жалеют: работа была рутинной…

«Цифровой Пушкин — это не Пушкин»

Данный пример, конечно, приземленный, но в наши дни ИИ проникает всюду, включая и горние выси. На форуме выступали представители основных религиозных конфессий России. Единодушно признавая за наукой право на развитие, они в то же время подчеркивали, что это должно идти человеку во благо — причем реально, а не по аналогии с известной шуткой про «борьбу за мир», способную не оставить от мира камня на камне.

«Цифровой Пушкин — это не Пушкин», — заявил в разговоре о так называемом цифровом бессмертии глава синодального отдела Московского патриархата по взаимоотношениям церкви с обществом и СМИ Владимир Легойда. В целом он поставил вопрос о том, «успевает ли техника становиться культурой», и напомнил, что «для человеческой культуры важна категория удивления» — по всей видимости, недоступная для машинного разума.

Впрочем, тот же Крайнов пояснил, что так называемые цифровые копии живых или умерших людей — это лишь «крайне неудачный термин», за которым пока стоит не больше реального содержания, чем за актерскими ролями; только с функцией интерактивности. «Человека, с которого делали копию, во всем этом нет», — подчеркнул специалист, а по поводу перспективы реального выполнения такого замысла добавил, что «в ближайшие 50 лет» она не просматривается, и даже сказал: «Думаю, я не доживу до того момента, когда это произойдет».

Хотя он на «цифровое бессмертие» и не претендует: самого его вполне устраивает эволюция, основанная на «постоянном переборе вариантов» и, соответственно, требующая сменяемости поколений. А в сфере религии у разработчиков и сейчас хватает этических дилемм: допустимо ли, например, доверять ИИ генерировать или реставрировать иконы, сравнивать и комментировать тексты священных книг, сочинять проповеди? Между прочим, «Яндекс», один из нынешних лидеров в развитии ИИ в России, начинал с поисковых систем, и первая из них, как вспоминал Крайнов, была именно поиском по тексту Библии.

От себя добавлю, что, по известному определению английского поэта и философа XIX века Сэмюэла Кольриджа, поэзия — это «лучшие слова в лучшем порядке». Подбирать и расставлять слова ничто не мешает и машине. Но не думаю, что даже самые проникновенные тексты, созданные таким образом, скажут что-то нашему уму или сердцу. В строках Пушкина живет его «душа в заветной лире», и именно это рождает отклик и в наших душах. Как раз поэтому, как указывалось на форуме, «слишком похожие» на оригинал копии не срабатывают, а ни один нормальный священник не обратится к прихожанам с проповедью, написанной ИИ.

«Волшебная палочка» уже в руках

Интересно, что, по сути, об этом же говорила на международной сессии форума и официальный представитель МИД РФ Мария Захарова. Развитие технологий дошло до такого уровня, когда «волшебная палочка уже с нами»: «нажми на кнопку — получишь результат», рассуждала она. Но какой результат? Где образ будущего, который в прежние времена всегда давала литература, но который теперь не просматривается? И как нам всем не свалиться в тот ужас («катастрофическое, апокалиптическое развитие»), к которому мы уже буквально «подошли вплотную»?

«Чего не хватает «до абсолютного совершенства», казалось бы, обещаемого цифровизацией?» — спрашивала Захарова. И сама себе отвечала: «Главного — той самой души, которая есть у человека».

А без этого главного, как я бы добавил, все остальное не имеет смысла. Помните, в Священном писании: «Какая польза человеку, если он приобретет весь мир, а душе своей повредит?»

Почему сейчас?

Хотя, между прочим, на той же сессии прозвучал и внятный технический ответ на ключевой вопрос, которым задавалась Захарова: почему именно сейчас вышли на первый план вопросы, касающиеся развития искусственного интеллекта? Дал этот ответ Сергей Гарбук — председатель Технического комитета Росстандарта по ИИ, разрабатывающего методы испытания технологий ИИ для защиты от основных рисков. Приятно, кстати, было убедиться, что у нас есть структура, целенаправленно работающая над такой защитой.

Так вот Гарбук пояснил, что ИИ, основанный на методах машинного обучения, «обладает очень высокой универсальностью решения задач автоматизации» и «позволяет автоматизировать даже те процессы, где мы не имеем математически строгой, интерпретируемой аналитической модели наблюдаемого объекта или процесса».

«Почему в медицине так много ИИ?» — поставил вопрос специалист. И сам ответил: «Ну вот нет математических моделей печени, почек и т.д., потому что они очень сложные. Но [зато есть] огромная эмпирика. И машинное обучение позволяет и там автоматизировать человеческий, так сказать, интеллектуальный труд». «Соответственно, актуализируется и вопрос социальной приемлемости такой автоматизации — в силу широкого охвата», — добавил эксперт.

В центре внимания

Захарова вслед ему напомнила, что человечество в своей истории на самом деле уже не раз вырабатывало кодексы профессиональной этики в различных областях: от медицины (клятва Гиппократа и великий принцип «Не навреди!») до судов и профессиональной армии. Но я потому так подробно и изложил ответ Гарбука, что мне самому интересен и все же не до конца понятен нынешний всплеск интереса к теме ИИ.

Сказать, что она находится в центре внимания, — ничего не сказать. Судите сами: у нас к участникам форума обратился президент страны Владимир Путин (приветствие оглашала начальник профильного управления Татьяна Матвеева). До конца текущего года должна быть утверждена обновленная Национальная стратегия развития искусственного интеллекта на период до 2030 года. В среду, 22 ноября, в Москве открывается очередная крупная международная конференция по развитию ИИ — AI Journey 2023.

«Не у нас» новостей тоже в избытке. Буквально в тот самый день, когда в ТАСС говорили о «поколении GPT», лидеры США и Китая Джо Байден и Си Цзиньпин условились на встрече в Калифорнии запустить двусторонний диалог по искусственному интеллекту. 1–2 ноября в усадьбе Блетчли-парк близ Лондона проходил первый международный саммит по безопасному использованию ИИ, созванный британскими властями. А еще летом по их же инициативе тематику ИИ впервые обсуждал Совет Безопасности ООН; генсек организации Антониу Гутерриш тогда заявил, что, по оценкам финансового сектора, вклад ИИ в мировую экономику к 2030 году будет составлять от $10 трлн до $15 трлн (!), и поддержал идею создания в ООН специального органа для регулирования сферы ИИ.

В преддверии британского саммита местная The Daily Telegraph писала, что штаб-квартиру такого регулятора — организации типа МАГАТЭ — власти королевства хотели бы разместить в Лондоне. Но вице-президент США Харрис объявила — не на самом саммите, а в отдельной речи в американском посольстве, — что США уже заручились поддержкой 30 стран для собственной «политической декларации», нацеленной на выработку «набора норм ответственной разработки, развертывания и применения военного потенциала ИИ». Издание NewScientist считает, что американская инициатива «угрожает задвинуть в тень Блетчли-парк».

Нет такого поколения! 

Между прочим, об «экзистенциальной угрозе» для человечества со стороны машинного разума еще до британского слета предупреждали многие ведущие разработчики технологий ИИ, включая Илона Маска и Сэма Альтмана — гендира (CEO) компании OpenAI, создавшей сверхпопулярную нейросеть ChatGPT (Гутерриш говорил о ней на упомянутом заседании СБ ООН, что число пользователей этого чат-бота «достигло 100 млн человек всего за два месяца»).

Точнее — уже бывшего гендира. Буквально 17 ноября Альтман был внезапно уволен советом директоров OpenAI «за неискренность». Сенсационная отставка породила массу домыслов — вплоть до версии, будто OpenAI сумела создать так называемый универсальный или сильный искусственный интеллект (artificial general intelligence, AGI), а тот поспешил избавиться от своего хозяина, чтобы самому контролировать перспективу собственного дальнейшего развития.

Все это, конечно, лишь подхлестнуло глобальный интерес к компании, хотя тот и без того зашкаливал. Ведь OpenAI — по существу стартап, которому нет еще и 10 лет (он был создан в 2015 году). Первый образец своих «генеративных предобученных трансформеров» (это буквальный перевод словосочетания, образующего аббревиатуру GPT) компания представила в 2018-м. А ChatGPT был запущен 30 ноября 2022-го, то есть ему вообще меньше года от роду. Альтману и самому-то на сегодняшний день 38 лет; а еще один сооснователь OpenAI, уроженец Нижнего Новгорода Илья Суцкевер, отвечающий в компании за науку, на год моложе.  

Но при этом международный форум, только что прошедший на нашей тассовской площадке, назывался… «Поколение GPT». Как хотите, но такого поколения пока просто нет и быть не может. Хотя ощущение, что оно неизбежно появится, присутствует.

«Самая актуальная тема»

Собственно, к этому во многом сводится и ответ на вопрос, «почему сейчас». Но за более подробными объяснениями я все же обратился к Евгению Кузнецову — гендиру венчурного фонда Orbita Capital Partners. Сам себя он считает инвестором и футурологом, на форуме его представляли как «визионера». Выступал он, кстати, онлайн, а беседовали мы еще накануне.

Прежде всего эксперт подтвердил, что всплеск интереса к ИИ «огромен» и на сегодняшний день это, видимо, вообще «самая актуальная тема в мире». Основными вехами предыстории он считает появление в 2003 году компании Palantir Technologies, наладившей обработку колоссальных объемов данных по заказам спецслужб США, а затем — подъем «второй волны», то есть того, «что началось в прошлом году с появлением действующих Large Language Models (LLM), то есть больших языковых машин, когда ИИ современного типа стал общедоступен». Поясню, что GPT — как раз одна из таких машин.

Гонка цифровых вооружений

Основными слагаемыми успеха в борьбе за цифровое лидерство Кузнецов считает деньги, таланты и доступ к высокопроизводительному оборудованию. Именно поэтому, на его взгляд, США пытаются лишить Китай доступа к лучшим западным разработкам, включая продукцию компании Nvidia (напомню, кстати, что на латыни Invidia — имя богини возмездия, а заодно и название смертного греха зависти).

Интересно, что борьба, которую собеседник сравнивает с «гонкой вооружений», идет в основном не на государственном, а на корпоративном уровне. «Как ни парадоксально, лидерами гонки являются частные компании, и в США, и в Китае, — говорит он. — Государство им изо всех сил помогает: деньгами, заказами, регуляторкой, попыткой затормозить конкурентов и т.д. Но нет ни одной госструктуры в мире, которая бы имела такой же по качеству ИИ, как у частных компаний».

Россия, по словам Кузнецова, смотрится на общем фоне «неплохо»: «наверное, мы даже в тройке» лидеров. Флагманами отрасли у нас эксперт называет «Яндекс» и «Сбер», хотя значимые достижения есть у многих. В частности, по его словам, «Тинькофф» недавно засветил новую методу обучения, которая позволяет очень сильно экономить как раз требования к ресурсам (то есть качественное обучение получается на существенно менее производительных системах), — и это тоже классное ноу-хау, которое для России крайне актуально».

«Открытие года»

Среди текущих вызовов для разработчиков самым важным и интересным Кузнецов считает «вопрос о том, как управлять результатом интеллектуальной деятельности ИИ; то есть, грубо говоря, как его цензурировать».

«Изначально была полярно противоположная позиция США и китайцев, — рассказывает специалист. — Американцы говорили, что [не надо вообще] никакой цензуры, а китайцы — что даже данные, на которых обучаются машины, должны быть отцензурированы».

Теперь, по словам собеседника, «обе эти крайние позиции опровергнуты»: «Американцы поняли, что если ИИ не ограничивать, то дело может плохо кончиться… А китайцы убедились, что если цензурировать на уровне [входных] данных, то ИИ не получается вообще».

«Это одно из самых великих открытий этого года, которое может вообще войти в историю, — говорит Кузнецов. — Когда они начали создавать LLM на основании отцензурированных данных, те получились крайне тупыми. И оказалось, что можно цензурировать результаты, но ни в коем случае не входные данные». Теперь, по словам эксперта, «везде в мире идет поиск баланса между, с одной стороны, качеством для производительности, а с другой — цензурой во имя политической стабильности».

От себя добавлю, что я спрашивал об этих тезисах специалистов, приезжавших в ТАСС. Матвеева из администрации президента заверила, что у нас никакой цензуры для ИИ не практикуется. Крайнов из «Яндекса» подтвердил, что входная цензура губительна.

А Максим Колесников из Минэкономразвития РФ, в ведении которого находится федеральный проект по развитию ИИ, и сам разъяснил наш подход без всяких вопросов. «Видим, как мир поляризуется, — сказал он в приветствии участникам форума. — Есть достаточно жесткие принципы регуляторики в Европе, есть более мягкие в Китае и США. Мы здесь выступаем за гибридный подход. Мы не исключаем вариантов того, что, наверное, ряд самых важных вопросов придется регулировать уже на уровне законов, но пока большую часть вопросов можно регулировать за счет развития Кодекса этики и соблюдения принципов, которые мы с вами разрабатываем».

Угробит ли нас ИИ?

Вопрос о том, «не угробит ли нас всех ИИ», Кузнецов разделяет на «два слоя». С одной стороны, он не отрицает, что «перспектива появления уже упоминавшегося AGI — всеобщего интеллекта, сравнимого по масштабам с человеком как минимум, а то и с человечеством в целом», — не может не вызывать «достаточно серьезных алармистских опасений». Хотя бы в силу того, что «появление такого суперразума на Земле — нечто неизведанное; мы с таким в истории нашего вида не сталкивались». А в нынешнем году, по словам собеседника, «появились реальные основания полагать, что это произойдет, причем достаточно быстро».

С другой стороны, эксперт указывает на «очень интересные исследования, которые показывают, что разумность ИИ устроена вообще по-другому». Что «он не сверххищник», а некая «горизонтальная прошивающая система», у которой «вообще, возможно, нет задачи кого-то порабощать».

В таком случае, по мнению собеседника, речь может идти о нашей «коэволюции», «синергии» с «другим субъектом, который неотделим от человечества», поскольку «питается нашими данными и нашими идеями». Кузнецов признает, что «это лишь гипотеза», но все же небезосновательная и разделяемая многими исследователями.

К тому же, по его словам, у данной идеи «есть замечательная иллюстрация». «В этом году была произведена попытка дообучать ИИ текстами, которые сам же ИИ и произвел, — рассказывает он. — И оказалось, что при таком дообучении качество ИИ быстро вырождается. То есть, грубо говоря, он не может самообучаться [только] на собственных текстах. Все равно нужны люди — даже если это не Эйнштейны, а мы с вами».

«Все равно на нас с вами он обучается и умнеет, а без нас умнеть не может, — повторяет собеседник. — Это потрясающий вывод, который лично мне кажется доказательством того, что скорее будет коэволюция, чем иерархическая борьба за доминирование».

Что ж, как говорится, эти слова — Богу в уши. Помните, мы говорили, что Пушкин не поддается никакому «цифровому копированию»? Но оказывается, что и без простых людей, то есть нас с вами, машинному разуму тоже не обойтись.

Востребованный опыт

Напоследок — несколько слов о том, что на форуме практически не обсуждалось. Как политический обозреватель ТАСС, полжизни работавший в США, я не мог не спросить, почему в дискуссиях об этике ИИ у нас почти нет примеров из сфер политики и журналистики, хотя за океаном как раз вокруг них в основном ломаются копья.

Крайнов, взявшийся мне отвечать, сказал, что это просто неинтересно. Мол, с точки зрения этики нет предмета для споров: заведомо ясно, что обман и подлог с использованием ИИ неприемлемы. Другие эксперты уточнили, что конкретные вопросы, конечно, возникают, и Комитет по этике обязательно будет ими заниматься.

Политический контекст я накануне форума обсудил с Еленой Зиновьевой из Центра международной информационной безопасности и научно-технологической политики МГИМО. Она напомнила, что Россия первой — в 1998 году, когда «еще никто в мире об этом не думал», — подняла тему информационной безопасности и внесла проект соответствующей резолюции на рассмотрение Генеральной Ассамблеи ООН. Безопасность ИИ, которая теперь у всех на слуху, — ключевая составная часть этой общей темы.

Нынешние инициативы англосаксов на данном направлении собеседница оценивает как очередной пример «геополитической и экономической конкуренции». Смысл их, на ее взгляд, состоит в том, чтобы «придумать в узком кругу свои правила и потом представить их как универсальные — с тем, чтобы Россия и Китай не предлагали свое видение». Разумеется, «для нас это неприемлемо», что не раз подчеркивал и глава МИД РФ Сергей Лавров.

Со своей стороны Москва готова к диалогу со всеми заинтересованными сторонами, а наш опыт востребован не только дома, но и за рубежом. Наглядным подтверждением тому стали выступления на форуме как российских официальных лиц, так и иностранных гостей. В частности, посланник генсека ООН по вопросам технологий Амандип Сингх Гилл заявил, что через год на Саммите будущего «может быть принято решение о создании органа по этическому кодексу» в сфере ИИ. К такому же российскому кодексу присоединились уже более 270 компаний, организаций и госорганов в нашей стране, а также 23 участника из 16 стран мира.

Deus ex machina

Типичной развязкой античных драм было появление «Бога из машины». Нечто подобное мы, похоже, наблюдаем и теперь — со стремительным вторжением в привычный нам мир загадочного, одновременно пугающего и манящего искусственного интеллекта.  

Но вот вопрос: происходит ли на наших глазах генерация или дегенерация? Рождение или вырождение новой генерации людей — того самого «поколения GPT»? Ждет ли нас, так сказать, окончательное «горе от ума», или все же в мире машинного разума найдется уголок и для человеческого чувства?

Столетний Генри Киcсинджер не так давно предрекал, что во взаимодействии с ИИ для нас точкой невозврата станет момент, когда «рекомендации, вырабатываемые машинами для «оптимизации» нашей жизни, станут недоступными для нашего собственного понимания». Жаль, что я не спросил специалистов на форуме, далеко ли до этого рубежа. Но, может, еще успеется…

Метки: , , , , ,

Оставить комментарий!

Вы можете использовать эти теги:
<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>