ГЛАВНАЯ > События, факты, комментарии

Глобальный саммит по безопасности искусственного интеллекта в Лондоне как тест Тьюринга

15:40 03.11.2023 • Анатолий Смирнов, член НАМИБ, президент АНО «Национальный институт исследований глобальной безопасности», д.и.н., профессор МГИМО МИД России Ирина Кохтюлина, ученый секретарь АНО «Национальный институт исследований глобальной безопасности», к.полит.н.

1-2 ноября 2023 г. в Великобритании состоялся Глобальный саммит по безопасности ИИ, в котором приняли участие около ста представителей государств, научного и бизнес-сообществ из 28 стран и Евросоюза. В ходе саммита состоялись 8 круглых столов, была принята Декларация, подписанная представителями правительств 12 стран.

 

В 1950 году один из пионеров в области вычислительной техники и криптографии, английский учёный Алан Тьюринг в статье под названием «Может ли машина мыслить?»» (англ. Computing Machinery and Intelligence) описал процедуру для определения момента, когда машина сравняется в плане разумности с человеком.

Интерпретация теста Тьюринга следующая: человек - судья взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека-судью в заблуждение, заставив сделать неверный выбор. При этом участники теста не видят друг друга». Если человек-судья не может сказать определённо, кто из собеседников является человеком, то считается, что машина прошла тест. Данный тест в модернизированной форме до сих пор нередко используется для оценки новых поколений компьютеров.

70 лет спустя англичане решили напомнить миру о своем земляке Алане Тьюринге – пионере ИИ. Для этого было неслучайно использовано и место проведения саммита Блетчли-парк,[1] также известный как Station X — особняк, расположенный в историческом графстве в центре Англии. В период Второй мировой войны в Блетчли-парке располагалось главное шифровальное подразделение Великобритании — Правительственная школа кодов и шифров (Government Code and Cypher School, GC&CS), позже получившая имя Центр правительственной связи (Government Communications Headquarters, GCHQ). Здесь взламывались шифры и коды стран нацистской коалиции и была реализована операция «Ультра» (от Ultra secret), по дешифровке сообщений «Энигмы»[2].

Амбициозный план Лондона к глобальному лидерству в ИИ

В сентябре 2021 г. в Великобритании была принята Национальная стратегия с амбициозным десятилетним планом стать сверхдержавой в сфере ИИ.[3] На 62 страницах стратегии детально изложены ключевые положения и конкретные мероприятия дорожной карты. При этом некоторые эксперты и политики проводили историческую параллель: Англия была родиной промышленной революции 17 -18 веков, ей по плечу стать лидером и фазового перехода человечества к ИИ, сопоставимого с изобретением электричества.[4]

Как известно, 2022- 2023 годы были ознаменованы беспрецедентным ростом интереса в мире к ИИ. Во многом данный феномен был связан с разработкой Google в 2017 г. прорывной архитектуры нейросетей «трансформеров», ставших основой для создания нейросетей типа GPT (Generative Pre-trained Transformer - предварительно обученный трансформер для генерации).

На базе трансформера компанией Open AI создана линейка GPT‑моделей, которая позволила войти в сферу ИИ даже пользователям, весьма далёким от компьютерных технологий. Версия ChatGPT4, представленная 14 марта 2023 года, поразила своими «способностями». Действительно, ChatGPT4 может общаться «в русле» беседы, «знает» содержание книг и фильмов, умеет переводить со многих языков, а также способен создавать коды, давать медицинские и иные советы, искать картинки, формулировать «проверенные» ответы на самые непредсказуемые вопросы, демонстрировать многие другие компетенции, навыки и знания.[5]

У ChatGPT все больше и больше конкурентов: в Microsoft - продукт Bing[6], в Google – Bard,[7] Baidu -ERNIE Bot[8] и т.д. Их успешно догоняют отечественные Gigachat[9] от Сбер, YandexGPT2[10] и др. Все они используют набор базовых моделей, известный как «большая языковая модель» (A large Language Model, LLM).

ChatGPT4 очень удобен и гибок. Получив запрос или данные, компьютерная сеть в миллисекунды начинает контекстное «угадывание» следующего слова (слов) или действия. В результате миллиардов итераций «угадывания» возникает принципиально новый уровень интент-анализа (возможно с учетом контент-анализа, коннект-анализа, а также геолокации источника информации).

Таким образом, об ИИ можно говорить не только как о «мгновенно понимающем», но и как об оперативно помогающей интеллектуальной системе поддержки принятия решений. Данное обстоятельство особо актуально в ситуационно-кризисных центрах крупных компаний и ведомств, в т.ч. внешнеполитических при выборе вариантов реагирования на кризисные и чрезвычайные ситуации в международных отношениях, особенно в условиях цейтнота.

Лидеры ИИ активно развивают генеративный ИИ. Компания OpenAI с первого дня своего существования как раз задалась целью разработать сильный искусственный интеллект (Artificial General Intelligence, AGI). Если ИИ достигнет уровня AGI, то практически это будет означать подход к порогу технологической сингулярности. [11]

Данное обстоятельство совершенно по-новому ставит вопрос о международной и национальной безопасности. 22 марта 2023 года Илон Маск вместе с более чем 1000 экспертов в области ИИ опубликовал письмо с требованием ввести мораторий на обучение систем более мощных, чем GPT-4, так как неконтролируемый процесс в этой области, по мнению Маска и согласных с ним экспертов, может представлять угрозу для человечества.[12]

В конце мая 2023 года группа лидеров отрасли ИИ в заявлении (из одного предложения!) предупредила, что «Снижение риска исчезновения от ИИ должно быть глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война»[13] (опубликовано некоммерческой организацией Center for AI Safety). Письмо подписали более 350 руководителей, исследователей и инженеров, работающих в сфере ИИ. Среди подписантов были топ-менеджеры трех ведущих компаний в области ИИ: OpenAI, Google DeepMind, Anthropic, которые в мае 2023 г. встретились с президентом Байденом, чтобы обсудить вопросы регулирования ИИ. После встречи в своем выступлении в Сенате они предупредили, что риски, связанные с ИИ, требуют вмешательства правительства, и призвали регулировать ИИ из-за его зловещих угроз. Как утверждалось в мае, с этими тезисами согласились более 1,8 тыс. руководителей компаний (включая основателя Tesla Илона Маска и соучредителя Apple Стива Возняка) и более 1,5 тыс. профессоров и ученых По состоянию на 1 ноября 2023 года общее количество подписей составляло 33711 тыс.[14]

В этих условиях Министерство по делам науки, инноваций и технологий Великобритании (DSIT) было вынуждено опубликовать 29 марта 2023 года «Белую книгу» по системному регулированию в отношении технологий ИИ,[15] разъясняющей принципы правительственной политики в этой области. В книге отмечено, что регулирование ИИ направлено на выстраивание общественного доверия к технологиям ИИ.

Было подчеркнуто, что в сферах, связанных с ИИ, в Британии работает около 50 тыс. человек, и этот рынок только в 2022 году принес британской экономике £3,7 млрд. Правительство напомнило, что в свое время именно Великобритания была одной из стран, вместе с США, ЕС, Японией, Канадой и другими успешно применившей системный подход к регулированию криптовалютного рынка. План по регулирующим нормам Великобритании для ИИ предполагает пять базовых принципов: безопасность; прозрачность и доступность; честность и справедливость; подотчетность и ответственность; возможность судебного оспаривания и исправления ошибок.

Публикация документа означало, что у регуляторов есть 12 месяцев для выработки законопроекта — с учетом базовых принципов, изложенных в «Белой книге», и всех возможных рисков регулирования. Затем рассмотрение этих мер будет передано в парламент страны.  

7 июня 2023 года премьер-министр Риши Сунак во время визита в США согласовал с президентом Байденом вопрос об обсуждении темы ИИ в ООН и о проведении глобального саммита по ИИ в Лондоне.[16]

Инициатива Великобритании об обсуждении темы ИИ в Совбезе ООН

В соответствии с Уставом ООН главная ответственность за поддержание международного мира и безопасности возложена на Совет Безопасности ООН. Учитывая усиление угроз использования ИИ против человечества, Великобритания как действующий в июле 2023 года председатель Совбеза ООН приняла решение провести заседание на тему «Искусственный интеллект: возможности и риски для международного мира и безопасности».

18 июля 2023 года Министр иностранных дел Великобритании Джеймс Клеверли на заседании Совбеза обратился к генсеку ООН Антониу Гутерришу «Ваше присутствие сегодня подчеркивает важность рассматриваемой темы».[17]

Генсек ООН, по его словам, уже шесть лет пристально наблюдает за развитием ИИ. Он подчеркнул, что не ожидал столь сильного влияния ИИ на устойчивое развитие и социальный порядок и признался, что «был поражен и впечатлен» радикальным прорывом в возможностях ИИ, который проявился в ChatGPT, а также других подобных сервисах.

При этом он обратил внимание на невиданную скорость ИИ. Действительно, многие сравнивают ИИ с изобретением книгопечатного станка, но на его распространение по Европе потребовалось более 50 лет, а GPT-чат достиг 100 млн пользователей всего за два месяца. Согласно прогнозам к 2030 году ИИ может принести мировой экономике от $10 трлн до $15 трлн дохода.

Относительно «возможностей и рисков» Гутерриш заявил, что даже сами разработчики не знают, куда приведет их этот потрясающий технологический прорыв.

ИИ как экзистенциальная угроза человечеству

На заседании А. Гутерриш подчеркнул, что ИИ может усилить предубеждения среди населения разных стран и дискриминацию, а также служить тем, кто стремится к авторитарному контролю над обществом. Искусственно сгенерированный контент, вводящий в заблуждение (deep fake),— это лишь один из множества вариантов применения ИИ, которые могут иметь серьезные последствия для мира и стабильности. Генсек ООН отметил, что злонамеренное использование систем ИИ террористическими, преступными организациями вплоть до государственного уровня может вызвать смерти и разрушения ужасающих масштабов.     

При этом ранее он обращал внимание на то, что ученые и эксперты призвали мир к действию, объявив ИИ экзистенциальной угрозой человечеству наравне с риском ядерной войны.

В этом контексте он поддержал призывы ряда стран к созданию нового органа ООН по вопросам ИИ, по аналогии, например, с МАГАТЭ, ИКАО или Международной группой экспертов по изменению климата (МГЭИК).

Джеймс Клеверли согласился с тезисом о необходимости срочного формирования государственного управления данными технологиями, потому что ИИ не знает границ. Он поделился видением Лондона по этому вопросу, которое основано на четырех принципах:

— открытости ИИ, который должен поддерживать свободу и демократию;

— ответственности ИИ, что предполагает соответствие верховенству закона и правам человека;

— безопасности ИИ и предсказуемости алгоритмов, что включает в себя защиту прав собственности, конфиденциальности и национальной безопасности;

— ИИ должен пользоваться доверием общественности, а его критически важные системы должны быть защищены.

При этом в Британии были разные мнения о том, насколько кардинально ИИ может поменять нынешний миропорядок. Так, на следующий день после заседания Совбеза, эту тему прокомментировал руководитель британской внешней разведки MI6 Ричард Мур.[18] Наряду с набором типичных для англосаксов бездоказательных (highlу likely) русофобских утверждений, он подчеркнул в подготовленном заявлении: «Искусственный интеллект изменит мир шпионажа, но не заменит потребность в шпионах-людях».

Глобальный саммит по безопасности и регулированию технологии ИИ

На заседании Совбеза ООН Министр Клеверли подчеркнул, что для заседания Совбеза это слишком широкий вопрос, но вполне подходит для первого глобального саммита, посвященного безопасности и регулированию технологии ИИ. Он проинформировал, что в Британии осенью состоится такой саммит. В канцелярии премьера Риши Сунака сообщали, что в работе саммита примут участие ученые, а также представители руководства стран-лидеров на рынке технологических компаний и «ключевых государств». Их список оглашать не стали, но собеседники издания The Daily Telegraph рассказали, что речь идет о встрече глав «государств-единомышленников». В этом списке Италия, США Франция, Япония и другие страны G7. Россия, естественно, в список «государств-единомышленников» не вошла.

Анонсируя саммит по ИИ, британский премьер Риши Сунак сказал: «ИИ обладает невероятным потенциалом для того, чтобы изменить нашу жизнь к лучшему, но мы должны убедиться, что он разработан и используется безопасным и надежным способом»[19].

Проведенные накануне саммита многочисленные консультации, встречи и иные мероприятия показывали, что, не смотря на постоянно вбрасываемые в СМИ материалы, интерес к нему, как глобальному событию, ослабевал. Об этом убедительно свидетельствуют следующие данные: на саммите по безопасности ИИ в Блетчли-парке 1 -2 ноября 2023 года, приняли участие около 100 представителей правительств, ведущих компаний, занимающихся ИИ, гражданского общества и научных кругов 28 стран и ЕС.

Представители правительств 12 стран подписали Декларацию Блетчли.[20]

Важным для Великобритании стал запуск первого в мире Института безопасности ИИ, задачей которого является тестирование безопасности новых типов ИИ.[21]

После четырех месяцев создания первой команды в правительстве G7, способной оценить риски, связанные с моделями Frontier с ИИ, сегодня было подтверждено, что Целевая группа Frontier по ИИ теперь превратится в Институт безопасности ИИ, председателем которого останется Иэн Хогарт. Внешний консультативный совет Целевой группы теперь будет консультировать новый глобальный центр по безопасности ИИ.

Институт будет тщательно тестировать новые типы ИИ до и после их выпуска, чтобы выявить потенциально опасные возможности моделей ИИ, включая изучение всех рисков, от социального вреда, такого как предвзятость и дезинформация, до самого маловероятного, но экстремального риска, такого как полная потеря человечеством контроля над ИИ. При проведении этого исследования Институт безопасности ИИ будет стремиться к тесному сотрудничеству с Институтом Алана Тьюринга как национальным институтом науки о данных и ИИ.

Запустив Институт безопасности ИИ, Великобритания пытается укреплять свои позиции как мирового лидера в области безопасности ИИ. Мировые лидеры и крупнейшие компании, занимающиеся ИИ, сегодня выразили свою поддержку Институту в связи с завершением первого в мире саммита по безопасности ИИ.

Ведущие исследователи Института Алана Тьюринга и Имперского колледжа Лондона приветствовали запуск института, наряду с представителями технологического сектора techUK и Startup Coalition.

Великобритания уже договорилась о двух партнерских отношениях: с американским институтом безопасности ИИ и с правительством Сингапура о сотрудничестве в области тестирования безопасности ИИ.

Премьер-министр Риши Сунак заявил, что Институт безопасности ИИ будет выступать в качестве глобального центра безопасности ИИ, ведущего жизненно важные исследования возможностей и рисков этой быстро развивающейся технологии.

Государственный секретарь по науке, инновациям и технологиям Мишель Донелан подчеркнула, что Институт безопасности ИИ станет носителем международного стандарта. При поддержке ведущих стран с ИИ это поможет политикам по всему миру в преодолении рисков, связанных с самыми передовыми возможностями ИИ, чтобы мы могли максимизировать огромные выгоды. В преддверии выхода в следующем году новых мощных моделей ИИ, возможности которых, возможно, еще не полностью поняты, его первой задачей будет быстрое внедрение процессов и систем для их тестирования перед запуском, включая модели с открытым исходным кодом.

Председатель Института безопасности ИИ Иэн Хогарт заявил, что поддержка международных правительств и компаний является важным подтверждением работы, которую мы будем проводить для повышения безопасности ИИ и обеспечения его ответственного развития. С помощью Института мы сыграем важную роль в сплочении мирового сообщества для решения проблем, связанных с этой быстро развивающейся технологией. Институт безопасности ИИ получит приоритетный доступ к этому передовому суперкомпьютеру под названием Dawn в Кембридже.

Саммит по безопасности ИИ уже заложил основы для того, чтобы переговоры по безопасности приграничного ИИ стали продолжением дискуссии в Южной Корее через полгода.[22]

Дискуссии на круглых столах саммита - важное

Великобритания публикует их как председатель саммита, а не как политический документ правительства Великобритании.[23]

Круглый стол 1: риски для глобальной безопасности из-за неправильного использования ИИ на передовых рубежах

Обсуждение рисков безопасности, создаваемых новейшими моделями ИИ следующего поколения, включая риски для биозащиты и кибербезопасности.

Председатель: Франсуа-Филипп Шампань, министр инноваций, науки и промышленности Правительства Канады

  • Новейшие передовые системы ИИ (GPT4 и эквиваленты) намного облегчают менее изощренным злоумышленникам проведение кибератак, разработку биологического или химического оружия.
  • Весьма вероятно, что передовые системы ИИ станут более эффективными и точными, а также более распространенными и доступными для злоумышленников, поэтому эти риски будут расти.
  • Передовые компании в области ИИ начали внедрять некоторые меры предосторожности в свои модели, но это должно быть дополнено действиями правительства. Необходимо сотрудничать правительствам, отрасли и экспертам, особенно в области тестирования.
  • Риски, которые системы ИИ представляют для общественности, значительны. Нам необходимо срочно провести исследования и найти способы гарантировать, что текущие и будущие модели не позволят злоумышленникам причинить вред.
  • Мы находимся только на ранних стадиях понимания того, как работают эти модели, какие риски они представляют и, следовательно, как разработать адекватные меры предосторожности. Нам нужны глобальные и решительные действия сейчас, чтобы признать эти риски и действовать в соответствии с ними. Передовые компании в области ИИ, правительства, академические круги и исследователи гражданского общества должны быстро работать над этим сообща.

Круглый стол 2: риски, связанные с непредсказуемым развитием передовых возможностей ИИ

Обсуждение рисков, связанных с непредсказуемыми "скачками" в передовых возможностях ИИ по мере быстрого масштабирования моделей, новых методов прогнозирования и последствий для будущего развития ИИ, в том числе с открытым исходным кодом.

Председатель: И Цзэн, Академия наук Китая

  • Нынешние возможности передовых систем ИИ намного превосходят то, что многие предсказывали всего несколько лет назад.
  • По мере роста инвестиций, весьма вероятно, мы будем продолжать удивляться тому, что могут делать системы ИИ будущего способами, которые не обязательно предполагаются их создателями.
  • Эти модели смогут подключаться к другим системам и расширять их возможности – количество возможных перестановок означает, что трудно предвидеть потенциальные результаты до выпуска.
  • Передовые возможности ИИ, вероятно, принесут огромные выгоды, решая нерешенные в настоящее время проблемы в здравоохранении, образовании, охране окружающей среды, науке и других областях. Но те же самые свойства ИИ, также создают значительные риски.
  • Новые передовые модели ИИ должны разрабатываться и тестироваться тщательно, в безопасных условиях. Обещание потенциальных преимуществ не должно быть причиной для пропусков или спешки с тестированием безопасности или другой оценкой.
  • Хотя модели открытого доступа имеют некоторые преимущества, такие как прозрачность и стимулирование исследований, невозможно отозвать модель открытого доступа с опасными возможностями после ее выпуска. Особую озабоченность вызывает потенциал моделей открытого доступа для неправомерного использования ИИ, хотя для сбалансирования рисков и выгод необходимо открытое обсуждение.
  • Хорошо делиться инструментами оценки, но мы не свободны от рисков. Нам нужно постоянно следить за возникающими рисками.

Круглый стол 3: риски потери контроля над передовым ИИ

Обсуждение того, может ли продвинутый ИИ в будущем привести к потере контроля со стороны человека и насколько это возможно, риски, которые это будет представлять, и инструменты для предотвращения этого.

Председатель: Джозефин Тео, министр связи и информации правительства Сингапура

  • Современный ИИ относительно легко управляется, ибо требует подсказки от человека и, как правило, терпит неудачу, когда его просят планировать цели во времени. То есть имеет ограниченные возможности для принятия мер в реальном мире. Но вскоре модели улучшат эти параметры, что приведет к серьёзным последствиям.
  • Даже когда кажется, что системы ИИ демонстрируют высокие когнитивные способности, мы не можем быть уверены, что они будут вести себя так же, как люди, или принимать те же решения, что и люди. Так, будущие системы могут без надзора предпринимать действия, которые их разработчики не намеревались предпринимать.
  • Существующие модели не представляют экзистенциального риска, и неясно, сможем ли мы когда-либо разработать системы, которые существенно избежали бы человеческого надзора и контроля. Сегодня мало доказательств, исключающих, что новые ИИ, при неправильном использовании, может представлять угрозу существованию. Этот вопрос активно обсуждается исследователями.
  • Было бы целесообразно предпринять более существенные действия в ближайшей перспективе для снижения этого риска. Это может включать в себя усиление ограничений или, возможно, даже приостановку разработки передовых технологий ИИ, чтобы пользоваться существующими преимуществами ИИ, пока продолжается работа по пониманию безопасности.
  • Это может быть реализовано при поддержке новых стимулов и рычагов. Пригодность и результативность таких мер будет зависеть от соблюдения и, следовательно, от способности правительств обеспечить, чтобы ‘злоумышленники’ не смогли их обойти.
  • Мы можем предпринять конкретные действия сейчас, чтобы предотвратить эти сценарии. Есть решения, которые не следует передавать системе ИИ, и поэтому мы работаем над тем, как обществу избежать чрезмерной зависимости. Нам также необходимо тщательно протестировать модели в безопасных средах и провести дальнейшую работу, чтобы понять, как может произойти потеря контроля.

Круглый стол 4: риски, связанные с интеграцией передового искусственного интеллекта в общество

Обсуждение рисков, связанных с интеграцией передового искусственного интеллекта в общество, включает воздействие на преступность и безопасность в Интернете, срыв выборов и усугубление глобального неравенства. Обсуждение включает меры, которые страны уже принимают для устранения этих рисков.

Председатель: Мариетье Шааке, Стэнфордский институт киберполитики

  • Известный ИИ создает социальные риски, которые представляют экзистенциальную угрозу демократии, правам человека, гражданским правам, справедливости и равенству (например, экономическим возможностям, здравоохранению и развитию).
  • Нам нужно лучше использовать инструменты, которыми мы уже располагаем, для устранения этих рисков. Нам нужно уточнить, как следует применять существующие правила для решения таких вопросов, как конфиденциальность, ответственность и интеллектуальная собственность. Мы должны применять известные решения в области доверия и безопасности и опираться на них.
  • Нам нужны более всеобъемлющие и качественные технические оценки моделей ИИ, которые включают социальные показатели и учитывают контекст их применения в реальном мире. Оценки должны быть непрерывными и охватывать рабочие процессы, а не только статические наборы данных.
  • Мы должны инвестировать в фундаментальные исследования, в том числе в собственные системы правительств. Государственные закупки - это возможность применить на практике то, как мы будем оценивать и использовать технологии.
  • Мы не должны упускать возможность использовать ИИ для решения глобальных проблем, включая укрепление демократии, преодоление климатического кризиса и устранение предвзятости общества.
  • Нам необходимо вовлекать граждан в то, как используется ИИ: правительствам следует активно стремиться включать широкий круг граждан, включая молодежь, в дополнение к техническим экспертам, гражданскому обществу и другим лицам, например, в правительственные консультативные советы.

Круглый стол 5: Что должны делать разработчики frontier AI для ответственного масштабирования возможностей?

Обсуждение политики ответственного масштабирования возможностей у передовых разработчиков ИИ, включая определение пороговых значений рисков, эффективную оценку рисков моделей, предварительные обязательства по снижению конкретных рисков, надежные механизмы управления и подотчетности, а также выбор вариантов разработки моделей.

Председатель: Мишель Донелан, государственный секретарь по науке, инновациям и технологиям правительства Соединенного Королевства

  • Продолжаются дебаты о том, насколько мы должны стремиться к масштабированию возможностей, или же масштабирование возможностей неизбежно, но мы согласны с тем, что мы должны быть готовы к рискам.
  • Передовые компании в области ИИ добиваются значительного прогресса в разработке политики безопасности ИИ, включая ответственную политику масштабирования возможностей с учетом рисков. Однако эти политики в области безопасности ИИ компаний нуждаются в дальнейшем развитии. Эта работа срочная и должна быть выполнена за месяцы, а не за годы.
  • Политика компаний является лишь базовой и не заменяет необходимость для правительств устанавливать стандарты и регулировать. В частности, от доверенных внешних третьих сторон, таких как недавно объявленные Институты безопасности искусственного интеллекта Великобритании и США, потребуются стандартизированные контрольные показатели.
  • Повышение уровня кибербезопасности, включая принципы secure by design, является основополагающей мерой для всех разработчиков ИИ.
  • Разработчики Frontier AI также несут уникальную ответственность за поддержку усилий по пониманию возможностей ИИ и рисков, включая сотрудничество в исследованиях безопасности ИИ и обмен данными о том, как используются их системы.
  • Эти практики разработчиков являются частью общего подхода к снижению рисков. Могут потребоваться другие процессы для повышения устойчивости общества к миру, в котором распространение ИИ является нормой.

Круглый стол 6: Что должны делать национальные директивные органы в отношении рисков и возможностей ИИ?

Обсуждение различных стратегий управления пограничными рисками ИИ во всех странах, включая мониторинг, механизмы подотчетности, лицензирование и подходы к моделям ИИ с открытым исходным кодом, а также уроки, извлеченные из уже принимаемых мер.

Председатель: Ребекка Финлей, Партнерство ИИ

  • Национальные правительства со всех уголков мира заинтересованы в том, чтобы преимущества ИИ могли быть реализованы в полной мере, а риски должным образом управлялись.
  • Важно учитывать существующие и возникающие риски, включая неправильное использование, потерю контроля и более широкий ущерб обществу, обеспечивая при этом пропорциональные подходы, основанные на оценке рисков, которые могут реализовать уникальные возможности, предоставляемые передовым ИИ.
  • Обеспечение такого баланса между рисками и возможностями было сложной задачей, учитывая темпы развития ИИ, и для успешного решения этой задачи потребуются регулирование и инновации, которые должны идти рука об руку. Они не находятся на противоположных концах спектра, и регулирование может стимулировать инновации, в том числе посредством такой политики, как законы о безопасности продукции и "песочницы".
  • Для поддержки этого необходимо добиться более глубокого понимания, в том числе передовых возможностей, применения ИИ в различных областях и потенциальной роли институтов безопасности ИИ. Принимая во внимание заявления Великобритании и США, необходимо дальнейшее рассмотрение, чтобы понять, какую работу возьмут на себя такие институты.
  • Правительства признают безграничную природу ИИ. Работая сообща, мы будем в лучшем положении для преодоления этих глобальных проблем, в том числе в тех случаях, когда национальные условия различаются. Существует особая потребность в наращивании потенциала правительств, который может включать общие ресурсы и стандарты для обеспечения интероперабельности, сотрудничества и общего понимания рисков ИИ и мер по их снижению.
  • Необходимо, чтобы управление было быстрым, гибким и инновационным. Однако, признавая уникальную роль правительств действовать от имени своих граждан, необходимо также предпринять действия по преодолению цифрового разрыва, в том числе посредством образования и развития навыков, для укрепления и поддержания общественного доверия.

Круглый стол 7: Что должно сделать международное сообщество в отношении рисков и возможностей ИИ?

Обсуждение того, где международное сотрудничество наиболее необходимо как для управления рисками, так и для реализации возможностей, связанных с передовым искусственным интеллектом, включая области для международного исследовательского сотрудничества.

Председатель: Тино Куэльяр, Фонд Карнеги

  • Необходимы согласованные действия. Международный подход должен основываться на общих ценностях и осуществимых и реалистичных действиях. Подход должен быть инновационным, совместным и инклюзивным, а также на осознании риска.
  • Системы ИИ по своей сути являются международными. Системы, созданные в одной стране, могут быть легко и быстро внедрены в другой. В ближайшие годы число стран, принимающих передовые системы ИИ, будет стремительно расти, включая модели с открытым исходным кодом, которые могут быстро распространяться.
  • Во всем мире мы также сталкиваемся с общими проблемами в реагировании на достижения ИИ. Мы находимся только на ранних стадиях понимания возможностей передовых систем ИИ, рисков и возможностей, которые они представляют, а также политики и инструментов для защиты систем.
  • Совместная работа необходима и отвечает нашим общим интересам, в том числе там, где политические системы и национальные структуры различаются, для координации ответных мер и сотрудничества в решении общих проблем. Глобальный саммит по безопасности ИИ и другие форумы показывают, что мир уже выбирает этот путь.
  • По нашей оценке , приоритетами международного сотрудничества в области пограничного ИИ на ближайшие 12 месяцев являются:
  • выработать общее понимание передовых возможностей ИИ и рисков, которые эти системы представляют для глобальной безопасности и благополучия людей
  • разработать скоординированный подход к исследованиям безопасности и оценке моделей передовых систем ИИ, включая способы их применения
  • развивать международное сотрудничество и партнерства, направленные на обеспечение всеобщего доступа к преимуществам ИИ таким образом, чтобы сократить глобальное неравенство, а не расширять его
  • Эти приоритеты могут быть выдвинуты на ряде многосторонних форумов. Мы должны работать сообща, чтобы обеспечить взаимодополняемость и целенаправленность различных инициатив.

Круглый стол 8: Что должно делать научное сообщество в отношении рисков и возможностей искусственного интеллекта?

Обсуждение текущего состояния технических решений для обеспечения безопасности ИИ на передовых рубежах, наиболее актуальных областей исследований и где появляются перспективные решения.

Председатель: Анджела Маклин, главный научный советник правительства Великобритании

  •  Нам нужно много исследований по новым архитектурам, которые по замыслу должны быть безопасными. Нам есть чему поучиться у инженеров по безопасности. Нам нужно добавить несъемные выключатели. Нам нужно обсудить открытый и закрытый выпуск, но не слишком быстро, и размер модели имеет значение в этом обсуждении. Эпистемологическая скромность имеет решающее значение, у нас много неопределенности.
  • Нам необходимо понимать существующие риски существующих моделей. Число участников, участвующих в разработке ИИ и оценке на протяжении всего жизненного цикла, невелико. Бремя доказывания безопасности должно оставаться на поставщиках ИИ. Роль научного сообщества заключается в разработке тестов, демонстрирующих безопасность для политиков.
  • Нам нужен список исследовательских вопросов, которые мы соберем вместе. Мы должны опираться на множество методологий, включая социальные науки, поскольку это социотехническая задача. Нам нужно определить и сосредоточиться на наиболее важных вопросах; главное - скорость. Нам обоим нужно сосредоточиться, но сбалансировать это с распределением наших ставок, учитывая неопределенность. Ученые должны работать рука об руку с политиками, привнося научный метод в основу этих оценок рисков.
  • Нам нужно остерегаться концентрации власти, которую мы наблюдаем в Интернете. Нам нужна географическая и языковая интеграция. Нам нужно услышать мнение общественности, и есть много голосов, которые необходимо услышать и усилить.

Сдал ли тест Тьюринга глобальный саммит по безопасности ИИ в Лондоне?

Вернемся к началу статьи и вспомним интерпретацию теста Тьюринга: человек – судья взаимодействует с одним компьютером (условно саммит) и одним человеком (условно человечество). На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека-судью в заблуждение, заставив сделать неверный выбор.

Прежде чем вынести вердикт, давайте вспомним «киберправила» коллективного Запада.[24] Тактика Запада по продвижению проектов в обход существующих форматов ООН особо касается цифровой сферы. Среди фактов следует отметить «Парижский призыв к доверию и безопасности в киберпространстве» (2018 г., Франция), «Глобальное партнерство по искусственному интеллекту (2020 г., Канада, Франция), «Форум технологий будущего (2021 г., Великобритания), «Глобальную коалицию демократического технологического развития» (2021 г., США), «Декларацию о будущем Интернета» (2022 г., США), «Международное агентство по мирному использованию киберпространства» - как альтернатива Рабочей группы ООН открытого состава по безопасности в сфере использования ИКТ и самих ИКТ - РГОС (2022 г., США).

«Альянс за многосторонность» продвигает французскую инициативу «Парижский призыв к доверию и безопасности в киберпространстве»[25]. Ее сторонниками являются 81 государство, 390 организация и 706 компаний.

Парижский призыв ориентирован на развитие международного сотрудничества в киберпространстве между различными государственными и негосударственными участниками в рамках 6 рабочих групп. Особо подчеркивается применимость международно-правовых норм к киберсфере. Иными словами, не предполагается их адаптация с учетом специфики ИКТ. Не предусматривается согласование конкретных и строгих обязательств.

Задачи, зафиксированные в инициативе, дублируют мандат созданных по инициативе России РГОС, а также Специального комитета по выработке всеобъемлющей конвенции по противодействию информационной преступности (Спецкомитет). Однако в отличие от российских инициатив, Парижский призыв направлен на продвижение существующих международных правил ответственного поведения исключает возможность выработки юридически обязательных норм.

Одним из приоритетов Парижского призыва является продвижение мультистейколдерной модели в переговорном процессе под эгидой ООН. На практике это предполагает уравнивание в правах государственных и негосударственных акторов, в том числе путем подключения последних к выработке и принятию решений. В ноябре 2021 г. администрация США выступила с поддержкой данной инициативы[26].

В июне 2018 г. накануне саммита «Группы семи» премьер-министр Канады Дж. Трюдо и Президент Франции Э.Макрон подписали двустороннее заявление об ИИ. Была зафиксирована задача по созданию международной группы. На данную группу планировалось возложить функции по изучению вопросов, связанных с ИИ. Мандат предполагаемой структуры был предложен в конце 2018 г. в ходе встречи «Группы семи», в мае 2019 г. министрами по вопросам цифровизации соответствующих стран была подписана декларация о создании «Глобального партнерства по искусственному интеллекту»[27] (официально учреждено 15 июня 2020 г.).

«Ядро» составили государства-члены «Группы семи», Австралия, Индия, Мексика, Новая Зеландия, Республика Корея, Сингапур, Словения и Европейский союз. В совместном заявлении отмечалось, что партнерство представляет собой «международную и мультистейкхолдерную инициативу, призванную служить ориентиром для ответственной разработки и использования ИИ, основанную на правах человека, инклюзивности, многообразии, инновациях и экономическом росте».

К сотрудничеству в рамках рабочих групп по 4 вопросам (ответственный ИИ, управление данными, будущее занятости, инновации и коммерциализация) подключились 25 государств, НПО, бизнес и академическое сообщество. По функционалу данная инициатива дублирует работу Специального комитета по искусственному интеллекту Совета Европы.

Изначально американская сторона не поддержала инициативу, т.к. по словам заместителя директора по технологиям Белого дома Лин Паркер, группа будет дублировать работу Организации экономического сотрудничества и развития (ОЭСР) в области ИИ[28].

В 2019 г. Советом ОЭСР были приняты рекомендации по ИИ, получившие поддержку всех членов Организации, а также Аргентины, Бразилии, Коста-Рики, Колумбии, Перу и Румынии[29]. Документ ориентировал на соблюдение ряда принципов при развитии ИИ, в частности, на содействие инклюзивному росту, устойчивому развитию и благополучию, приоритетное уважение человеческих ценностей, укрепление транспарентности, надежности, безопасности и устойчивости ИИ-систем, а также подотчетность ИИ-акторов.

Данные рекомендации были поддержаны участниками «Группы двадцати», в т.ч. Россией, Китаем и Индией, и были инкорпорированы в Совместное заявление министров торговли и цифровой экономики «Группы двадцати»[30].

В итоге, было принято решение, что организационную поддержку Партнерства обеспечивает ОЭСР, а также экспертные центры в Монреале и Париже. Принятые в ОЭСР рекомендации стали документальной основой Глобального партнерства. Помимо этого, Глобальное партнерство получило возможность использования созданного в рамках ОЭСР Репозитария по политике в области ИИ, отвечающего за сбор и анализ информации об ИИ, а также развитие диалога со всеми заинтересованными сторонами.

Присоединение к инициативе США было мотивировано политическими причинами – стремлением продвинуть западную модель демократических ценностей. Директор по технологиям в Белом доме Майкл Карциос заявил, что создание партнерства позволяет демократическим странам «объединиться в поддержку развития ИИ на основе фундаментальных прав и общих ценностей в противовес авторитарным режимам, таким как Китай, злоупотребляющим ИИ для контроля за собственным населением».[31]

Подобные настроения характерны были не только для американского истеблишмента. Так, Министр по цифровым технологиям Франции Седрик отмечал: «Если вы не хотите видеть в западных странах китайскую модель, например, в плане использования ИИ для контроля за населением, то вам нужно определить правила, которые должны быть общими для всех». [32]

В этой связи, показательно, что участниками партнерства стали Австралия, Индия, США и Япония, сотрудничающие в рамках Четырехстороннего диалога по вопросам безопасности, который является воплощением американской стратегии по сдерживанию Китая.

Полностью политизированным проектом стала инициатива Великобритании от 2021 г. по проведению «Форума технологий будущего»[33]. В заявлении Надин Доррис, члена парламента, Госсекретаря по цифровым технологиям, культуре, СМИ и спорту, подчеркивалось, что ряд государств «стремится использовать цифровые технологии для ограничения свободы, укрепления авторитарных режимов и подрыва нашего общего процветания». По ее словам, вредоносное использование наблюдается в текущем конфликте на Украине, когда «Россия делится ложными оправданиями своей агрессии в Интернете в рамках своей информационной войны»[34].

Форум станет частью более широких усилий по выработки правил в обход универсальных структур. Он дополнит усилия Саммита за демократию, Альянса для создания будущего Интернета, Дорожной карты G7 для свободного потока данных с доверием.

В данном контексте обратим внимание на инициативу США – «Декларация о будущем Интернета»[35]. На первом саммите за демократию планировалось анонсировать создание Альянса за будущее Интернета, однако тогда инициатива не получила развития. 28 апреля 2022 г. США и 60 государств и глобальных партнеров приняли «Декларацию о будущем Интернета», приняв на себя обязательства по продвижению свободного, открытого, глобального, функционально совместимого, надежного и безопасности Интернета для всего мира, который «базируется на единых для всех правилах и демократических ценностях». Декларацию с США подписали все члены ЕС, Австралия, Великобритания, Грузия, Израиль, Канада, Сербия, Украина, Япония, а также Европейская комиссия и Тайвань.

В центре внимание Декларации лежит задача противодействия «цифровому авторитаризму», т.е «подавлению свободы выражений мнений, цензуру в отношении независимых новостных источников, вмешательство в выборы, распространение дезинформации и лишение граждан других прав со стороны отдельных государств (прежде всего, России и Китая)». Подобные действия, по мнению коллективного Запада, приводят к «фрагментации Интернета». На практике фрагментация Интернета проявляется в стремлении западных стран изолировать отдельные государства от участия в формировании «правил».

В числе основных принципов в документе прописаны: защита прав и свобод человека, содействие глобальному интернету со свободным потоком информации, развитие инклюзивной и доступной связи, стимулирование доверия к глобальной цифровой экосистеме, в том числе за счет защиты конфиденциальности и противодействия киберпреступлениям, укрепление многостороннего подхода к управлению интернетом. По содержанию это дублирует работу таких универсальных структур, как ООН, «Группа двадцати», ОЭСР, ВТО и др.

Учитывая вышеизложенное, представляется, что Глобальный саммит по безопасности ИИ в Лондоне - это очередная попытка коллективного Запада обойти ООН и другие универсальные структур, то есть продолжить путь к подрыву миропорядка.

Действительно, создав в Лондоне глобальный институт безопасности ИИ, коллективный Запад в лице всего 12 правительственных подписантов Декларации узурпирует право навязывать правила и требования по безопасности к новым системам ИИ для всего мира!

Сдал ли тест Тьюринга Глобальный саммит по безопасности ИИ в Лондоне – судить читателю.

 

Мнение автора может не совпадать с позицией редакции

 

[1] В настоящее время на территории Блетчли-парка расположен Национальный музей компьютеров

[2] Переносная шифровальная машина, использовавшаяся для секретных сообщений. Первую версию роторной шифровальной машины запатентовали в 1918 г. На основе первоначальной модели «Энигмы» было создано целое семейство электромеханических роторных машин под тем же названием, применявшихся с 1920-х годов в сфере коммерческой и военной связи во многих странах мира, но наибольшее распространение получили в гитлеровской Германии.

[3] https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/1020402/National_AI_Strategy_-_PDF_version.pdf

[4] Промышленная революция – переход от традиционной экономической системы, где основой были ручной труд и земледельческое хозяйство, к индустриальному хозяйствованию. В это время широко внедряются машины и агрегаты, начинают работать фабрики. Англия стала первым государством, где произошла промышленная революция. Благодаря этим реформам во всех сферах жизни и экономики, она смогла стать «мастерской мира», обеспечивающей своими дешевыми и качественными товарами весь мир
Источник: https://histerl.ru/istoriya-evropy/promyshlennyj-perevorot-v-anglii.htm?ysclid=loh8fcymjp100407325

[5] Смирнов А.И., Исаева Т.В. Международная безопасность: вызовы и угрозы технологий искусственного интеллекта. URL: https://interaffairs.ru/news/printable/40904#_edn9

[6] https://www.bing.com/search?form=MD1A0D&OCID=MD1A0D&bep_ref=1&bep_csid=96478&q=Bing+AI&showconv=1

[7] https://bard.google.com/

[8] Ernie Bot ( Chinese , Wen Xin Yi Yan ), полное название Enhanced Representation through Knowledge Integration, — сервисный продукт с ИИ компании. Чат-бот был выпущен 17 марта 2023 года

[9] https://developers.sber.ru/portal/products/gigachat?attempt=1

[10] https://ya.ru/gpt/2

[11] Технологи́ческая сингуля́рность (technological singularity) — гипотетический момент в будущем, когда технологическое развитие становится в принципе неуправляемым и необратимым, что порождает радикальные изменения характера человеческой цивилизации

[12] https://futureoflife.org/open-letter/pause-giant-ai-experiments/

[13] THE CENTER FOR AI SAFETY (safe.ai) Statement on AI Risk https://www.safe.ai/statement-on-ai-risk

[14] https://www.safe.ai/statement-on-ai-risk

[15] https://www.gov.uk/government/news/uk-unveils-world-leading-approach-to-innovation-in-first-artificial-intelligence-white-paper-to-turbocharge-growth

[16] https://www.gov.uk/government/news/uk-to-host-first-global-summit-on-artificial-intelligence

[17] https://media.un.org/ru/asset/k1j/k1ji81po8p

[18] https://abcnews.go.com/amp/Technology/wireStory/britains-mi6-intelligence-chief-ai-wont-replace-human-101471110

[19] https://www.gov.uk/government/news/uk-to-host-first-global-summit-on-artificial-intelligence

[20] https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023

[21] https://www.gov.uk/government/news/prime-minister-launches-new-ai-safety-institute

[22] Выступление премьер-министра на саммите по безопасности ИИ: 2 ноября 2023 года

[23] https://www.gov.uk/government/publications/ai-safety-summit-1-november-roundtable-chairs-summaries/ai-safety-summit-2023-roundtable-chairs-summaries-1-november--2

[24] «Киберправила» коллективного Запада в обход ООН и других универсальных структур - путь к подрыву миропорядка https://interaffairs.ru/jauthor/material/2825

[25] https://www.diplomatie.gouv.fr/en/french-foreign-policy/digital-diplomacy/france-and-cyber-security/article/cybersecurity-paris-call-of-12-november-2018-for-trust-and-security-in

[26] https://www.state.gov/the-united-states-supports-the-paris-call-for-trust-and-security-in-cyberspace/

[27] https://www.gov.uk/government/publications/joint-statement-from-founding-members-of-the-global-partnership-on-artificial-intelligence/joint-statement-from-founding-members-of-the-global-partnership-on-artificial-intelligence

[28] https://wired.me/technology/artificial-intelligence/world-plan-rein-ai-us-doesnt-like/

[29] https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449

[30] https://www.japantimes.co.jp/news/2019/06/29/national/full-text-g20-osaka-leaders-declaration/

[31] https://www.wsj.com/articles/artificial-intelligence-can-serve-democracy-11590618319

[32] https://wired.me/technology/artificial-intelligence/world-plan-rein-ai-us-doesnt-like/

[33] https://www.gov.uk/government/publications/future-tech-forum-chairs-report/future-tech-forum-chairs-report

[34] Там же

[35] https://www.whitehouse.gov/wp-content/uploads/2022/04/Declaration-for-the-Future-for-the-Internet_Launch-Event-Signing-Version_FINAL.pdf

Читайте другие материалы журнала «Международная жизнь» на нашем канале Яндекс.Дзен.

Подписывайтесь на наш Telegram – канал: https://t.me/interaffairs

Версия для печати