От Байдена к Трампу: смена политики в сфере ИИ
Первые 100 часов после инагурации Трампа вызвали в мире противоречивые эмоции — от воодушевления до тревоги. «Бешеный» темп подписания Трампом десятков указов, в том числе отменяющих указы Байдена в сфере ИИ, требует рассмотрения последних.
В январе 2025 года администрацией Байдена были предприняты три основных действия, связанных с политикой в сфере ИИ.
- Структура распространения ИИ, которая обновляет экспортный контроль США, связанный с ИИ.[1] Правило устанавливает три уровня стран: 1) союзники США, 2) большинство других стран и 3) страны, на которые наложено эмбарго на поставки оружия.
- Компании, головные офисы которых находятся в странах уровня 1, могут свободно развертывать чипы ИИ в других странах уровня 1, а также в странах уровня 2 с учетом ограничений. Они также могут развертывать контролируемые модели (обученные не менее чем с 1026 FLOPS) как в странах уровня 1, так и в странах уровня 2, но разрабатывать эти модели можно только в странах уровня 1.
- Компании, головные офисы которых находятся в странах второго уровня, сталкиваются с ограничениями на количество чипов, которые они могут развернуть в странах первого и второго уровня, а также им запрещено обучать или разворачивать контролируемые модели.
- Компаниям, головные офисы которых находятся в странах третьего уровня, запрещено развертывать чипы ИИ или разрабатывать или развертывать контролируемые модели в любой стране. Компаниям в любой стране запрещено развертывать чипы ИИ или разрабатывать или развертывать контролируемые модели в странах третьего уровня.
Естественно, что сами США не подлежат экспортному контролю. Это означает, что компании могут импортировать чипы ИИ, а также разрабатывать и развертывать контролируемые модели без ограничений в США.
- Указ о продвижении лидерства США в области ИИ-инфраструктуры[2].
- Приказ предписывает федеральным агентствам к февралю 2025 года определить не менее трех федеральных площадок, на которых можно было бы разместить передовые центры обработки данных ИИ, и объявить победившие предложения от частных компаний к июню 2025 года.
- Указ способствует развитию чистой энергии и инфраструктуры электросетей для поддержки передовых центров обработки данных ИИ.
- Указ устанавливает стандарты безопасности для объектов ИИ, включая меры безопасности цепочки поставок, требования к физической безопасности, а также по разработке моделей ИИ.
В указе предусмотрены жесткие сроки: новые ЦОД должны быть введены в эксплуатацию к концу 2027 года.
- Указ об укреплении и продвижении инноваций кибербезопасности страны[3]. Среди прочих положений указ:
- Устанавливает новые требования безопасности для поставщиков программного обеспечения, сотрудничающих с федеральным правительством.
- Вводит меры по повышению кибербезопасности федеральных систем.
- Разрабатывает программы киберзащиты на базе ИИ, такие как создание крупномасштабных наборов данных для исследований в области киберзащиты.
Первые действия Трампа в сфере ИИ
Одним из первых действий администрации Трампа в отношении политики в области ИИ стала отмена[4] указа Байдена от 2023 года «Безопасная, надежная и заслуживающая доверия разработка и использование искусственного интеллекта»[5]. Данный указ, по мнению экспертов из окружения Трампа, сдерживал развитие новых систем ИИ.
22 января 2025 г. Трамп объявил о создании Stargate, совместном предприятии OpenAI, SoftBank и Oracle, которое в течение следующих нескольких лет планирует инвестировать $500 млрд в инфраструктуру ИИ[6]. Согласно заявлению OpenAI , компания на проект выделит $100 млрд. Данный мегапроект назвали «Манхеттонский проект 2.0»
Вместе с тем, сподвижник Трампа Илон Маск экономически подорвал проект, заявив, что у проекта «на самом деле нет денег»[7].
23 января 2025 г. Трамп учредил Президентский совет по науке и технологиям (PCAST)[8]. Совет состоит не более чем из 24 членов. Помощник президента по науке и технологиям (APST) и специальный советник по ИИ и криптографии[9] являются сопредседателями PCAST. Сопредседатели могут назначить до двух заместителей председателя PCAST из числа не федеральных членов PCAST, чтобы они помогали сопредседателям в руководстве и организации работы PCAST.
PCAST консультирует президента по вопросам, связанным с наукой, технологиями, образованием и инновационной политикой. Совет также предоставляет президенту научно-техническую информацию, необходимую для формирования госполитики в отношении американской экономики, американских работников, национальной и внутренней безопасности и других тем. PCAST должен, в т.ч.:
- отвечать на запросы Президента или Сопредседателей о предоставлении информации, анализа, оценки или рекомендаций;
- запрашивать информацию и идеи у широкого круга заинтересованных сторон, включая исследовательское сообщество; частный сектор; университеты; национальные лаборатории; правительства штатов, местные органы власти и управления племенами; фонды; и некоммерческие организации.
Искусственный сверхинтеллект – ловушка?
В статье «Манхэттенская ловушка»[10], вышедшей 17 Января 2025 года, авторы из Центра безопасности ИИ (Сан-Франциско, Калифорния) рассматривают стратегическую динамику международной конкуренции в области разработки искусственного сверхинтеллекта (ASI).
В статье утверждается, что стратегическая логика гонки США за искусственный сверхинтеллект подрывает саму себя. Авторы подчеркивают, что те же предположения, которые могут побудить США участвовать в гонке по разработке ASI, также подразумевают, что такая гонка чрезвычайно опасна.
Гонка за ASI обусловлена двумя предположениями: что ASI даёт решающее военное преимущество (DMA) первому государству, которое его разработает, и что государства являются рациональными субъектами, осознающими стратегические последствия ASI.
Однако те же самые предположения делают гонки катастрофически опасными по трем причинам.
- Гонка в области ИИ создаёт угрозу стратегической стабильности, которая может спровоцировать войну между США и их противниками, в частности Китаем. Если бы ИИ мог обеспечить решающее военное преимущество, государства рационально рассматривали бы развитие ИИ своими противниками как экзистенциальную угрозу, оправдывающую военное вмешательство и шпионаж. Государство не может стремиться к созданию ASI, не подвергая себя значительному риску конфликта между великими державами, если только:
а) его противники не знают о важности ASI (что противоречит предположению об осведомлённости),
б) разработка может оставаться в секрете (что, скорее всего, невозможно, учитывая необходимый масштаб),
в) противники считают, что могут выиграть гонку (что требует напряжённой борьбы, в которой победа не гарантирована).
- Гонки повышают риск потери контроля над однажды разработанной системой ASI. Авторы не занимают никакой позиции относительно вероятности потери контроля. Вместо этого они замечают, что аргумент в пользу гонок предполагает, что ASI будет обладать решающим преимуществом перед вооруженными силами глобальных сверхдержав; соответственно, потеря контроля над такой технологией также представляла бы экзистенциальную угрозу для государства, которое ее разработало. Авторы также утверждают, что ASI обеспечит DMA только в том случае, если его возможности будут масштабироваться чрезвычайно быстро — именно в том сценарии, при котором риск потери контроля теоретически наиболее высок. Наконец, гонка усугубляет этот риск, создавая конкурентное давление для разработки ASI до того, как будут приняты надлежащие меры контроля.
- Даже контролируемая система ASI угрожает разрушить властные структуры государства, которое её разрабатывает. В случае с США успешный проект ASI, скорее всего, подорвёт либеральную демократию, которую он якобы защищает. Система ASI, которая даст государству международное преимущество, также даст своим разработчикам беспрецедентную внутреннюю власть, создав чрезмерную концентрацию власти, которая, вероятно, несовместима с демократическими сдержками и противовесами. Гонки усугубляют этот риск, требуя, чтобы разработка происходила быстро и тайно — и, следовательно, без участия общественности.
Авторы подчеркивают, что эти три опасности — конфликт великих держав, потеря контроля и концентрация власти — представляют собой три барьера, которые государству необходимо преодолеть, чтобы «выиграть» гонку за ASI. Они означают, что гонка за ASI представляет собой экзистенциальную угрозу для национальной безопасности вовлечённых государств. Если предположить, что государства информированы и рациональны, то стратегическую ситуацию можно смоделировать как дилемму доверия: государства предпочтут взаимное сдерживание гонке и будут участвовать в ней только в том случае, если будут уверены, что другие тоже будут.
Таким образом, государства могут избежать гонки в области ASI, установив режим проверки: набор механизмов, которые могут подтвердить, что государство соблюдает международное соглашение и не занимается разработкой проекта в области ASI. Проект в области военного ИИ будет сильно отличаться от гражданских приложений ИИ и не будет интегрирован в экономику государства — именно в таких условиях режимы проверки исторически были успешными.
В статье делается вывод, что ASI — это дилемма доверия. Если гонка ASI мотивирована, то сотрудничество с целью избежать гонки ASI является предпочтительным и стратегически достижимым.
Известный астрофизик, профессор Массачусетского технологического института и соучредитель Института будущей жизни (FLI), Макс Тегмарк также опубликовал обращение к правительству США, в котором написал, что «предложение Манхэттенского проекта по ASI – это научное мошенничество… Сделать это – означало бы вступить в гонку к самоуничтожению»[11]. С М.Тегмарком согласен ученый-компьютерщик Джеффри Хинтон, который в октябре 2024 года получил Нобелевскую премию по физике за свои работы в области ИИ. Он сразу же выступил с предупреждением о неконтролируемой человеком мощи технологии ИИ[12].
В качестве ответа на вызовы гонки ИИ в США стоит привести материалы[13] заседания попечительского совета Московского государственного университета имени М.В.Ломоносова, которое 24 января 2025 года провел Владимир Путин. В своей речи он подчеркнул: «Прежде всего работа Московского государственного университета, как и всех вузов страны…, должна выстраиваться вокруг национальных целей развития, среди которых важнейшей целью, безусловно, является достижение Россией технологического лидерства».
Одновременно представляется правильным напомнить и о международной конференции «Путешествие в мир искусственного интеллекта» 11 декабря 2024 г., с участием Владимира Путина. Своё выступление он завершил словами: «Уверен, что серьёзный импульс такому сотрудничеству придаст международный Альянс национальных ассоциаций и институтов развития в сфере искусственного интеллекта стран БРИКС, других заинтересованных государств»[14].
Старт работе Альянса уже дан. Рассчитываем, что к нему будут присоединяться и новые иностранные участники, включая участников саммита по безопасности ИИ в Париже (10-11 февраля 2025 г.), равно как и других форматов взаимодействия по столь важной международной проблеме.
Мнение автора может не совпадать с позицией редакции
[1] https://www.federalregister.gov/documents/2025/01/15/2025-00636/framework-for-artificial-intelligence-diffusion?utm_source=substack&utm_medium=email от 15.01.2025
[2] https://www.federalregister.gov/documents/2025/01/17/2025-01395/advancing-united-states-leadership-in-artificial-intelligence-infrastructure?utm_source=substack&utm_medium=email от 14.01.2025
[3] https://www.federalregister.gov/documents/2025/01/17/2025-01470/strengthening-and-promoting-innovation-in-the-nations-cybersecurity?utm_source=substack&utm_medium=email от 17.01.2025
[4] https://www.whitehouse.gov/presidential-actions/2025/01/initial-rescissions-of-harmful-executive-orders-and-actions/?utm_source=substack&utm_medium=email от 20.01.2025
[5] https://www.federalregister.gov/documents/2023/11/01/2023-24283/safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence?utm_source=substack&utm_medium=email от 30.10.2023
[6] https://www.reuters.com/technology/artificial-intelligence/trump-announce-private-sector-ai-infrastructure-investment-cbs-reports-2025-01-21/?utm_source=substack&utm_medium=email от 22.01.2025
[7] https://substack.com/redirect/6dfd1770-a7fa-4c28-8563-353c6b344fd8?j=eyJ1IjoiMzVtbDZ2In0.U1sAzoJUl-Ovo4DCiXTZzSdY5Rxt5fKU-Q02m6lgveQ
[8] С отменой Указа № 14007 от 27 января 2021 года (Совет президентских советников по науке и технологиям), с поправками, внесёнными Указом № 14109 от 29 сентября 2023 года
[9] Дэвид Сакс
[10] Corin Katzke, Gideon Futerman The Manhattan Trap: Why a Race to Artificial Superintelligence is Self-Defeating
[11] https://www.fondsk.ru/news/2024/11/29/v-ssha-khotyat-sozdat-mankhettenskiy-proekt-iskusstvennogo-intellekta.html
[12] https://rg.ru/2023/05/02/chelovek-proigraet.html
[13] http://www.kremlin.ru/catalog/regions/MOW/events/76151
[14] http://www.kremlin.ru/events/president/transcripts/75830
Читайте другие материалы журнала «Международная жизнь» на нашем канале Яндекс.Дзен.
Подписывайтесь на наш Telegram – канал: https://t.me/interaffairs