Задекларированный страх: зачем премьеру Риши Сунаку понадобилось обезопасить ИИ

Риши Сунак
© AP Photo / Tolga Akmen

Алексей Языков

Если уж браться всерьез за предполагаемую проблему взаимоотношений человечества и якобы потенциально опасных искусственных интеллектов, то делать это следует в ООН.

Аморфный, иррациональный страх западных политиков перед тем, что сейчас принято называть искусственным интеллектом, обрел официальный статус. Британии удалось зазвать на саммит "Безопасность ИИ" несколько десятков представителей стран, заинтересованных в создании и использовании "разумных компьютеров", и подписать коммюнике довольно расплывчатого содержания.

Но слова о рисках и опасностях, а также о необходимости контролировать и проверять в тексте декларации имеются. Автором идеи официально объявить ИИ полезной, но потенциально опасной "штукой" стал британский премьер Риши Сунак, который задумал этот саммит, как полагают многие обозреватели, лишь для того, чтобы позиционировать себя в качестве серьезного политика международного уровня.

Положение у возглавившего кабинет министров королевства после чехарды со сменой премьеров лидера британских консерваторов Сунака, исповедующего индуизм этнического пенджаба, довольно шаткое и, похоже, очень уж всерьез его в Лондоне^ да и в других значимых столицах не воспринимают.

Так, о его потугах возглавить и повести за собой "балтийское воинство" НАТО практически никто в Европе не писал и значения этой попытке не придал. А потому и к затеянной Сунаком международной конференции "Безопасность ИИ" отношение было скептическое.

А кроме того, толком на самом деле пока никто не понимает, что именно понимается под "искусственным интеллектом" – имеется ли в виду просто очень сложный комплекс программ или же, как говорят некоторые разработчики уже ставших знаменитыми нейросетей типа ChatGPT и следующих их поколений, речь идет действительно о получившем собственное сознание компьютерном разуме (с которым придется договариваться как с равным или даже превосходящим живым существом).

Неясно также почему следует обезопасить, как говорилось на конференции в английском Блетчли-парк, общество от того, что создается вроде как во благо этого самого общества.

По европейским средствам массовой информации прокатилась волна возмущения тем, как злоумышленники используют возможности "искусственных интеллектов", к которым имеется свободный доступ, для так называемого "дип фейка" – создания очень реалистичных поддельных фото и видео порнографического содержания с участием известных людей или, как в одном случае, реальных испанских девочек-подростков.

Почти неотличимые от реальных изображения уже вызвали несколько очень серьезных скандалов, полицейских расследований и отставок политиков, напрасно уверявших избирателей и однопартийцев, что на этих фото вовсе не они.

Но попытка связать максимальное количество стран рамочным соглашением об ограничении и контроле использования ИИ вряд ли вызвана лишь раздражением от нескольких довольно гнусных скандалов и опасениями перед распространением еще более искусной дезинформации.

Впрочем, судя по тексту декларации, его авторам и самим многое непонятно и мало что известно относительно реальных возможностей, способностей и, как ни странно, намерений разработчиков и "воспитателей" искусственных интеллектов.

Хотя недосказанность и расплывчатость текста дают основания считать, что какие-то предостережения ученых или происшествия, связанные с ИИ, достаточно сильно напугали западных лидеров. Но испуг их, если дело в нем, а не в куда более прагматичных задачах (например, вовлечь в обсуждения Китай, далеко продвинувшийся в разработках ИИ), все же недостаточно силен, чтобы коллективный Запад захотел видеть в числе участников "саммита" в том числе и Россию – геополитические трения и предпочтения были все же сочтены более важными, чем согласование неких международных рамочных соглашений по "Безопасности ИИ".

Не самые искренние помыслы организатора и не самая хорошая основа для договоренностей

Команда британского премьера предприняла титанические усилия и, вероятно, раздала немало обещаний, чтобы заманить на встречу в Великобританию как можно больше влиятельных лиц (представители стран Балтии в их число не вошли).

"Саммит", то есть встреча глав государств и правительств, получился не очень представительным, но Лондон торжествовал, когда на встречу все же приехал знаменитый Илон Маск, а также делегация из Пекина, возглавляемая заместителем министра науки Китая У Чжаохуэй, и министр торговли США Джина Раймондо.

В итоге совместная декларация была подписана, она никого и ни к чему не обязывает, но стала своеобразным официальным подтверждением того, о чем говорят и пишут уже довольно давно – причем с недавних пор не только писатели-фантасты – человечество создает нечто такое, что может его уничтожить.

За всю историю таких открытий и изобретений было всего три: атомное оружие, расшифровка генома человека и вот теперь еще, как утверждается, "искусственный интеллект" (хотя опять же неясно, что под ним подразумевается).

В декларации о возможности "восстания машин", конечно же, прямо ничего не говорится, но упоминается о неких еще не созданных "высокоэффективных моделях ИИ", которые могут проявлять вредоносные способности и "превосходящие возможности, присутствующие в самых передовых моделях сегодняшнего дня".

"Существенные риски могут возникнуть в результате потенциального преднамеренного неправильного использования или непреднамеренных проблем контроля, связанных с соответствием человеческим намерениям, – говорится также в декларации. – Эти проблемы отчасти связаны с тем, что эти возможности не до конца изучены и поэтому их трудно предсказать.

Мы особенно обеспокоены такими рисками в таких областях, как кибербезопасность и биотехнологии, а также там, где передовые системы искусственного интеллекта могут усиливать такие риски как дезинформация. Существует вероятность серьезного, даже катастрофического вреда, как преднамеренного, так и непреднамеренного, вытекающего из наиболее значительных возможностей этих моделей ИИ.

Учитывая быстрые и неопределенные темпы изменений в сфере ИИ, а также в контексте ускорения инвестиций в технологии, мы подтверждаем, что углубление нашего понимания этих потенциальных рисков и действий по их устранению особенно актуально".

"Многие риски, возникающие в связи с ИИ, по своей природе носят международный характер, и поэтому их лучше всего устранять посредством международного сотрудничества. Мы полны решимости работать вместе на инклюзивной основе, чтобы обеспечить ориентированный на человека, заслуживающий доверия и ответственный ИИ", – отмечают авторы декларации.

Далее говорится о том, что "искусственный интеллект" должен быть безопасным и "поддерживающим всеобщее благо". Надо думать, здесь не имеются в виду те ИИ, что уже используются для управления боевыми ракетами и иными военными системами – их вряд ли можно отнести к числу тех, что "поддерживают всеобщее благо".

Существование их, естественно, не афишируется, но трудно представить себе, что военные специалисты упустили возможность многократно повысить эффективность вооружений.

Инициатива Риши Сунака, преследующего, вероятно, личные политические цели, обречена на забвение не только потому, что никак не способна на стремление держав использовать ИИ для военных целей вне всякого международного контроля.

Встреча в особняке Блетчли-парк, выбор в пользу которого определило желание Лондона напомнить всем, что именно здесь и именно британскими криптографами был раскрыт секрет нацисткой шифровальной машины "Энигма", малоэффективна еще и по причине ее явной геополитической ангажированности, стремления в очередной раз навязать миру свои правила, на этот раз правила работы с ИИ.

Если уже браться всерьез за проблему (если она вообще уже актуальна и существует в том масштабе, о котором туманно говорит декларация), то лишь на основе Организации Объединенных Наций.

Мнение автора может не совпадать с позицией редакции.

Подписывайтесь на 

Ссылки по теме