ГЛАВНАЯ > События, факты, комментарии

Международная безопасность: вызовы и угрозы технологий искусственного интеллекта

10:30 20.06.2023 • Татьяна Исаева, помощник директора ЦМИБ и НТП Института международных исследований МГИМО МИД России
Анатолий Смирнов, член НАМИБ, президент Национального института исследований глобальной безопасности, д.и.н., профессор МГИМО МИД России, Чрезвычайный и Полномочный Посланник в отставке

Весь мир охвачен беспрецедентным интересом к технологиям искусственного интеллекта (ИИ). Количество статей, исследований, монографий, конференций и иных научных и практических форумов и семинаров растет по экспоненте. Самое главное, что также экспоненциально растет и количество создаваемых машин, механизмов, инструментов и иных устройств с ИИ практически во всех сферах жизни человека, общества и государства.

ИИ – попытка краткого генезиса[1]

ИИ как крупная исследовательская программа стартовала ещё в 1950-х годах. В те времена она базировалась на символической логике и программисты кодировали входные данные для обработки ИИ. В силу этого полезность ИИ была весьма ограниченной.[2] 

В конце 1990-х годов появился ИИ второго поколения. На основе резко возросшей вычислительной мощности компьютеров, больших данных, новых алгоритмов, а также использования нейросетей произошел ряд знаковых событий. Так, в частности, в 1997 году команда IBM Deep Blue обыграла чемпиона мира по шахматам, а в 2016 году AlphaGo победила чемпиона мира по игре в Го.[3]

Достаточно условно к новому, третьему поколению ИИ можно отнести феноменальный успех нейросети ChatGPT, которую компания OpenAI анонсировала в ноябре 2022 года. GPT (Generative Pre-trained Transformer) переводится как предварительно обученный трансформер для генерации текста. «Трансформером» в Google назвали разработанную там в 2017 году прорывную архитектуру нейросетей.

Версия ChatGPT4, представленная в марте 2023 года, поразила своими широчайшими «способностями». Действительно, ChatGPT4 потрясает возможностью общения с ним «в русле» беседы, «знания» им содержания книг и фильмов, его умением многоязычного перевода, а также способностью создавать коды, давать медицинские и иные советы, искать картинки, формулировать «проверенные» ответы на самые непредсказуемые вопросы и многие другие компетенции.[4]

В основе ChatGPT – модель ИИ, обученная на огромном количестве больших данных, в результате чего получается модель, которую можно адаптировать к решению широчайшего круга самых разнообразных задач.

ChatGPT (как и его многие конкуренты: Microsoft Bing, Google Bard, YandexGPT и др.) использует набор базовых моделей, известный как «большая языковая модель». Данная модель применяет колоссальные объемы заложенной в нее текстовой информации и решает задачу предсказания (угадывания) следующего слова в тексте с учетом его предыдущего содержания, а также переводит тексты и обрабатывает (создает) изображения, звук или видео.

Таким образом данная модель программируется по принципу «нейронной сети», т.е. имитирует способ взаимодействия между собой нейронов в мозгу человека. Массивы исходных синапсов[1] взаимодействия нейронов (параметров) модели 2022 года ChatGPT3 впечатляют – около 175 миллиардов, а характеристики ChatGPT4 пока держатся в секрете…

Отличие ChatGPT4 заключается в его удобстве и гибкости: нейросети лишены узких мест предшественников, которым для «понимания» была нужна «разметка», т.е. маркировка их принадлежности к определенной категории, чем занимались сотни специалистов. Новейшие модели могут «понимать» данные через многие каналы, причем одновременно. Получив данные, компьютерная сеть в миллисекунды начинает контекстное «угадывание» следующего слова (слов) или действия. В результате миллиардов итераций «угадывания» возникает принципиально новый уровень интент-анализа с учетом контент-анализа, коннект-анализа, а также геолокации источника информации.

Таким образом, об ИИ можно говорить не только как о «мгновенно понимающем», но и о помогающей интеллектуальной системе поддержки принятия решений. Данное обстоятельство особо актуально в кризисных и чрезвычайных ситуациях в международных отношениях, особенно в условиях острого цейтнота.

Команда OpenAI занимается уже следующим этапом развития ChatGPT и уже в этом году ожидается появление ChatGPT5.[5] Если информация о возможностях GPT5 окажется верной, то OpenAI может достичь важного этапа в развитии ChatGPT, сделав генеративный ИИ почти неотличимым от человека и достигнув уровня ИИ общего назначения (AGI).

Данное обстоятельство совершенно по-новому ставит вопрос о международной и национальной безопасности, в том числе в контексте всех составляющих гибридной войны: политико-дипломатической, экономической, военной и информационной, включая когнитивное (поражает сознание) и ментальное (поражает мировоззрение) оружие.

ИИ в условиях ломки миропорядка

В Концепции внешней политики Российской Федерации (утверждена Президентом Российской Федерации В.В.Путиным 31 марта 2023 г.) отмечено, что человечество переживает эпоху революционных перемен. США и их сателлиты рассматривают укрепление России в качестве одной из угроз западной гегемонии. Принятые Россией меры по защите своих жизненно важных интересов на украинском направлении США использовали как предлог для обострения многолетней антироссийской политики и развязали гибридную войну нового типа.[6]

«Против нашей Родины вновь развязана настоящая война». Эти слова президент Владимир Путин произнес, выступая на Красной площади в 78-ю годовщину победы в Великой Отечественной войне.[7]

С появлением технологий ИИ изречение «история войн – это история великих открытий» наполняется принципиально новым, более грозным смыслом. Действительно, наряду с несомненным позитивом технологий ИИ для социально-экономического прогресса человечества, эксперты ставят ИИ в перечень технологий, навсегда меняющих облик войны и мира. Вслед за порохом, двигателем внутреннего сгорания, самолётом, ядерным оружием, авианосцами, информационным оружием, дронами и др. ИИ способен придать абсолютно новое содержание военно-экономической мощи государства, ибо он в центре практически всех прорывных технологий.

По оценкам ряда экспертов ИИ – это не очередной (седьмой) технологический уклад[8], а фазовый переход человечества, сопоставимый с такими эпохальными событиями как, например, изобретение печатного станка или электричества.

ИИ в проектах НАТО

Известно, что в НАТО киберпространство уже более 10 лет стало новым театром военных действий. С момента разработки технологий ИИ теоретики и практики занялись вопросом их имплементации в боевую сферу. Это нашло отражение не только в многочисленных исследованиях и создании образцов новейшего оружия, но и в доктринальных документах НАТО, США, Великобритании и других ведущих стран мира.  

Так, 21 октября 2021 г. министры обороны стран НАТО согласовали первую в истории НАТО стратегию по искусственному интеллекту.   

Генсек НАТО Йенс Столтенберг в ходе пресс-конференции в Брюсселе заявил, что новая стратегия сформирована в ответ на гонку авторитарных режимов в области разработки новых технологий. Документ охватывает анализ данных, изображений и киберзащиту. В этих целях альянс планирует создать фонд на «будущую защиту» объемом $ 1 млрд. В стратегии отмечается, что ИИ меняет глобальную среду обороны и безопасности и дает беспрецедентную возможность укрепить технологическое преимущество. «Эта основополагающая технология, вероятно, затронет весь спектр мероприятий, осуществляемых Североатлантическим альянсом в поддержку его трех основных задач; коллективная оборона, кризисное регулирование и безопасность на основе сотрудничества.»[9]

 Ранее, в сентябре 2021 года, правительство Великобритании опубликовало национальную стратегию искусственного интеллекта.[10] Документ нацеливает на превращение страны в супердержаву по ИИ и содержит план «новой национальной программы и подхода к поддержке исследований и разработок», а также материалы по управлению и регулированию сферы ИИ. Подход основан на ряде положений, в том числе о том, что «ИИ станет мейнстримом» и «режимы управления и регулирования должны будут соответствовать быстро меняющимся требованиям».

В апреле 2022 г. министры иностранных дел стран НАТО одобрили Устав Катализатора оборонных инноваций для Северной Атлантики – или DIANA (Defence Innovation Accelerator for the North Atlantic)[11], в рамках которого национальные испытательные центры ИИ обязаны поддерживать амбициозные проекты НАТО в области ИИ.

Программа DIANA предполагает взаимодействие персонала оборонных ведомств, перспективных стартапов из стран НАТО, научных исследователей и технологических компаний для решения ключевых задач в области безопасности.

Программа DIANA сфокусирована на глубоких технологиях (deep technologies) – тех новых и прорывных технологиях, которые НАТО определило в качестве приоритетных, включая:

обработку больших данных, искусственный интеллект, автономность, квантовые технологии, биотехнологии, энергия и движение, новые материалы и передовое производство, гиперзвук и космос, особенно там, где они носят двойной характер (коммерческий и оборонный) и глубоко технологичны, и где их можно использовать для решения сложных задач обороны и безопасности.[12]

30 марта 2023 г. было открыто первое региональное отделение DIANA в Инновационном центре Имперского колледжа Лондона (в партнерстве с Эстонией).[13] Эксперты, участвующие в программе DIANA, работают на десятках площадок и испытательных центров в более чем 20 странах-союзниках. В настоящее время DIANA использует сеть из более чем 10 аффилированных акселераторов и более 90 испытательных центров в инновационных центрах по всему альянсу. Региональные офисы DIANA расположены в Лондоне и Галифаксе, а региональный хаб – в Таллине[14].

Технологии ИИ: противостояние США и КНР

В Стратегии нацбезопасности от 12 октября 2022 года США объявили себя «мировой державой с глобальными интересами». Противниками США в документе указаны КНР и Россия, которые, как утверждается, в отличие от многих других в прошлом недемократичных режимов, не пошли по пути демократии.[15] Комиссия по ИИ, инклюзивности и инновациям Торговой палаты США в своем докладе, опубликованном в марте 2023 года, признает, что США сталкиваются с жесткой конкуренцией со стороны Китая в области разработки ИИ. Эта конкуренция настолько ожесточенная, что неясно, кто станет глобальным лидером и это вызывает серьезные опасения за безопасность США и их союзников[16].

США исходят из того, что решающую роль в противоборстве должно сыграть лидерство в военных технологиях. В феврале 2023 года Пентагоном была разработана «Совместная концепция конкуренции» (Joint Concept for Competing).[17] Она предусматривает концентрацию усилий на таких направлениях, как разведка, гибридные войны, конкуренция конфликтов, что позволит подготовиться к реалиям высокотехнологичного противоборства и потенциальным конфликтам.

В апреле 2023 года Американский Центр стратегических международных исследований CSIS установил семь технологий, которые способны сыграть ключевую роль в борьбе за победу с равным противником (Seven Critical Technologies for Winning the Next War)[18]. В первую очередь – это квантовые вычисления, биотехнологии и безопасные дублируемые коммуникационные сети. Далее – это мощные аккумуляторные батареи, искусственный интеллект, машинное обучение, космические датчики и робототехника. При этом эксперты CSIS утверждают, что отказ от любой из этих технологий может стать решающим фактором победы или поражения.

В рамках глобальной гибридной войны США поставляют вооружения Тайваню и на Украину, усиливая конфронтацию с двумя великими державами, и только наивные оптимисты верят, что США могут победить. В этих условиях понятно стремление Китая завоевать инновационное лидерство, обойдя США и Европу в области высокотехнологичной продукции, в том числе и в сфере ИИ.

Так, в июне 2022 года Китай анонсировал создание BaGuaLu – нейросети с 174 триллионами синапсами нейронов, что сравнимо с количеством синапсов нейронов в человеческом мозге.[19]

В связи с резким ростом роли цифровых технологий в НАТО в Народно-освободительной армии Китая (НОАК) был сформирован новый вид вооруженных сил – Силы стратегической поддержки. Главная задача их состоит в обеспечении надежного контроля над информационным пространством. Пекин реализует киберинициативу «План развития искусственного интеллекта нового поколения», где ИИ рассматривается в качестве ключевой преобразующей технологии экономического и военного доминирования в будущем[20].

В январе 2023 года стало известно о том, что НОАК будет моделировать вторжение на Тайвань с помощью ИИ.[21] Для этого планируется широко использовать информационные технологии, а с помощью ИИ будет смоделирована ситуация сдерживания сил США на территории Тайваня.

Противостояние США и КНР продолжилось на проходившей 2–4 июня 2023 года двадцатой конференции по безопасности «Диалог Шангри-Ла» — азиатском аналоге Мюнхенской конференции по безопасности. На конференции состоялся очередной раунд взаимных обвинений, результатом которых стал отказ министра обороны КНР от встречи с американским коллегой, так как китайский министр остался в санкционном списке США за свою роль на прежних должностях в закупке вооружений у России.[22] На встрече 19 июня 2023 года в Пекине Си Цзиньпин отверг предложение США создать горячую линию для военных кризисов, что является приоритетной целью администрации Байдена, заявил Энтони Блинкен.[23]  

В своей новой книге «Четыре поля битвы: сила в эпоху искусственного интеллекта» (издана в феврале 2023 года) отмеченный многими наградами эксперт по обороне П.Шарре утверждает, что превосходство в «больших данных» и ИИ для их обработки будет иметь решающее военное значение в соперничестве сверхдержав, особенно между Соединенными Штатами и Китаем.[24]  

В целях обеспечения технологического доминирования в США в соответствии с Законом о Национальной инициативе по искусственному интеллекту 2020 года, принятым 1 января 2021 года, была утверждена указанная инициатива по ИИ. Её основными целями являются обеспечение устойчивого лидерства США в области ИИ; лидерства в мире по разработке и использованию надежных систем ИИ в государственном и частном секторах; подготовка персонала к интеграции систем ИИ во все сектора экономики и общества; координация текущей деятельности в области ИИ во всех федеральных ведомствах.[25]

ИИ – угроза для человечества?

Миллиардер Илон Маск заявил, что ИИ неизбежно будет контролировать сам себя, обладая потенциалом «уничтожить человечество», хотя это и будет отличаться от сюжета «Терминатора». В марте 2023 года он присоединился к более тысяче экспертов, подписавших открытое письмо, инициатором которого стал «Институт будущего жизни» (the Future of Life Institute)[26]. Авторы призвали минимум на полгода «приостановить обучение нейросетей», чтобы «в течение этой паузы совместно разработать и внедрить общие протоколы безопасности».

Использование «больших данных» уже оказывало влияние на исход политических кампаний во многих странах мира. Широко известен скандал с британской компанией Cambridge Analytica, которая до начала кампании за выход Великобритании из ЕС и президентских выборов в США 2016 года скупила массивы данных о десятках миллионах британцев и американцев. База включала в себя огромное количество информации, начиная от лайков в соцсетях и заканчивая адресами проживания. После обработки данных, были запущены кампании таргетированной политической агитации – адресаты получали сообщения, максимально совпадающие с их общественно-политическими взглядами, за что и отдали свои голоса. Маск известен как симпатизант Трампа. И сегодня у него есть основания подозревать демократов в готовности применить против Трампа методы, в использовании которых они его обвиняли на выборах 2016 года.

При этом немало вопросов о политических последствиях внедрения продвинутых моделей ИИ, например, контроль над технологией Базовых моделей, разработка которых очень дорога. В силу этого возникает угроза концентрации технологий у небольшого числа компаний и правительств богатейших стран мира, ибо они получили бы инструменты глобального информационного и идеологического доминирования.

Неизбежны и новые угрозы для национальной безопасности. Так, упомянутые ранее технологии GPT могут быть использованы для создания очень опасных компьютерных вирусов и их запуска в глобальные сети. Модели, могут разрабатывать стратегии для военных, а от их способности генерировать реалистичные видеопотоки лишь один шаг до производства неограниченных объемов крайне убедительной дезинформации и манипулирования. Примером может быть дипфейковое видео, распространенное в социальных сетях, на котором Хиллари Клинтон поддерживает кандидатуру губернатора-республиканца Рона Десантиса на пост президента.[27]

Как ограничить гонку ИИ-вооружений?

Анализ показывает, что на сегодняшний день имеется три различных подхода к ограничению ИИ-вооружений. Наиболее мягкий – применять к ИИ существующие правила к системам ИИ. Евросоюз в принятом законе классифицирует использование ИИ по степени риска и требует более строгого контроля. Некоторые виды ИИ запрещены полностью, например, реклама, воздействующая на подсознание, а также дистанционная биометрия.

Сторонники более строгих ограничений требуют усиления надзора и регулирования ИИ. Так, технология «больших моделей» представляет собой скачок в разработке ИИ и требует отдельного регулирования.  

В конце мая 2023 года группа лидеров отрасли ИИ в заявлении (из одного предложения!) предупредила, что «Снижение риска исчезновения от ИИ должно быть глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война» (опубликовано некоммерческой организацией Center for AI Safety).[28] Письмо подписали более 350 руководителей, исследователей и инженеров, работающих в сфере ИИ. Среди подписантов были топ-менеджеры трех ведущих компаний в области ИИ: OpenAI, Google DeepMind, Anthropic.

Эти опасения разделяют многие лидеры отрасли, ставя себя в необычное положение, утверждая, что технология ИИ, которую они создают – и во многих случаях яростно стремятся создавать быстрее, чем их конкуренты, – представляет серьезные риски и должна регулироваться более жестко.

В мае 2023 г. исполнительные директора OpenAI, Google DeepMind и Anthropic встретились с президентом Байденом, чтобы обсудить вопросы регулирования ИИ. В своем выступлении в Сенате после встречи они предупредили, что риски, связанные с системами ИИ, требуют вмешательства правительства, и призвали регулировать ИИ из-за его зловещих угроз.

Дэн Хендрикс, исполнительный директор Центра безопасности ИИ, сказал в интервью, что открытое письмо представляет собой «выход» для некоторых лидеров отрасли, которые выразили обеспокоенность — но только в частном порядке — по поводу рисков технологии, которую они разрабатывали.[29]

Председатель Британского государственного Агентства перспективных исследований и изобретений (ARIA) Мэтт Клиффорд подчеркнул, что современные системы AI обучаются все с более возрастающей скоростью. По его мнению, если не начать уже сейчас разрабатывать системы контроля и безопасности, то через два года может быть поздно.[30]

ИИ как инструмент когнитивной войны

Противодействуя укреплению многополярного миропорядка, коллективный Запад апробирует всё новые методы гибридной войны против своих противников (в первую очередь России и Китая). Одной из новых форм её информационной составляющей считается «когнитивная война», иными словами «мозг как поле битвы 21-го века».[31]

Известно, что информационно-психологическое оружие нацелено на поражение воли противника, когнитивное – на его сознание, а ментальное – на его мировоззрение.

Наиболее активно технологии ИИ коллективный Запад использует в когнитивном оружии: для изменения когнитивных процессов у противника, умственных предубеждений или рефлексивного мышления, а также для провоцирования искажений мышления, негативного влияния на принятие решений как на индивидуальном, так и на коллективном уровнях.

Ведущую роль на этом направлении играет специализированный центр Innovation for Defence Excellence and Security (IDEaS), также известный как хаб по инновациям, размещенный в Канаде. При этом данный центр не входит в список   центров НАТО, таких как Центр киберобороны в Таллине или Центр противодействия гибридным угрозам в Хельсинки. Вероятно, в НАТО не захотели привлекать внимание к его работе, поэтому он функционирует «автономно».

В спонсируемом НАТО исследовании когнитивной войны 2020 года её феномен описывался как «милитаризация науки о мозге».[32] В докладе для НАТО отмечается, что прогресс в области НБИК-технологий привёл к быстрому развитию ИИ, Больших данных и глобальной «цифровой зависимости». Это, в свою очередь, позволяет сформировать «пятую колонну», в которой каждый ведёт себя не так, как ему хочется, а как планируют политические конкуренты. Цель состоит в том, чтобы посеять в России и Китае диссонанс, спровоцировать противоречивые нарративы, поляризовать мнения и радикализировать группы. Когнитивная война может мотивировать людей действовать таким образом, чтобы разрушить или фрагментировать сплоченное общество. Последующий хаос способен повлиять на принятие решений властями, изменить идеологию и вызвать недоверие среди союзников[33].

ИИ в России – проблемы и перспективы

За период с 2017 года более 40 стран разработали и приняли стратегии развития ИИ. В этих условиях Указом Президента РФ от 10.10.2019 №490 была утверждена Национальная стратегия развития ИИ на период до 2030 года.[34] В Стратегии определено, что Россия должна стать одним из международных лидеров в развитии ИИ для:

  1. Роста благосостояния и качества жизни населения.
  2. Обеспечения национальной безопасности и правопорядка.
  3. Достижение устойчивой конкурентоспособности российской экономики.

В соответствии со Стратегией Распоряжением Правительства РФ от 19.08.2020 № 2129-р. была утверждена Концепция развития регулирования отношений в сфере технологий ИИ и робототехники до 2024 года.

На пленарном заседании «Искусственный интеллект. Национальная консолидация во имя созидания» в рамках Международного военно-технического форума «Армия-2022» Заместитель Председателя Правительства Д. Чернышенко сообщил о начале работы Национального центра развития искусственного интеллекта при Правительстве России.[35] Вице-премьер отметил, что центр станет одним из инструментов реализации Национальной стратегии развития ИИ, а также мероприятий федерального проекта «Искусственный интеллект» нацпрограммы «Цифровая экономика».

В 2023 году Минэкономразвития России перезапускает ряд программ федерального проекта «Искусственный интеллект». В частности, запланирован отбор исследовательских центров для решения прикладных задач в сфере ИИ.[36]

Основным поставщиком комплектующих для России в сфере ИИ являются Китай, а в качестве стран-покупателей можно назвать Беларусь, страны юго-восточного и латиноамериканского регионов, а также Африки.

В России появились разработки нейросетей, аналогичные упомянутой ранее ChatGPT, например, GigaChat - русскоязычная ChatGPT от Сбера, 17 мая 2023 года Яндекс представил свою языковую модель — YandexGPT.[37]

Вместе с тем, В.Путин в своей речи 16 июня 2023 года на пленарном заседании XXVI Петербургского международного экономического форума подчеркнул: «Нужно активно внедрять и использовать эти наработки, поддерживать подготовку отечественного программного обеспечения в сфере больших данных, запускать проекты в области искусственного интеллекта и, конечно, заниматься укреплением информационной безопасности, отслеживать оборот данных, чтобы они не причинили ущерба национальной безопасности и интересам наших граждан…

К сожалению, здесь есть и отставание – нужно его навёрстывать и в дальнейшем строго придерживаться установленных планов…

Добавлю, что мы регулярно рассматриваем ход внедрения новых технологических решений в российской экономике, проводим ежегодную конференцию, посвящённую искусственному интеллекту. А начиная с этого года запускаем новую специальную площадку – Форум будущих технологий, где на ежегодной основе будут обсуждаться передовые направления технологического развития.

Компании, регионы, научно-исследовательские команды будут представлять свои разработки, делиться опытом в освоении новейших решений. Первый форум пройдёт совсем скоро – в июле.»[38]

Проблемы и перспективы международно-правового регулирования технологий ИИ в контексте международной безопасности

Военный ИИ – путь в Армагеддон?

Как уже отмечалось, технологии ИИ провоцируют подрыв международной безопасности в самых различных сферах. Смертоносные автономные системы (САС) - это тип военных систем, способных без участия человека находить и поражать цели на основе библиотеки образов, заложенных в базе. Сегодня ИИ в военном секторе не принимает решения самостоятельно: система может обнаружить и распознать вероятную цель и предложить варианты оператору. Однако поспешность во внедрении технологий ИИ может привести к алгоритмическим сбоям, к серьёзным авариям с жертвами. Включение ИИ в управление и контроль ядерных объектов способно резко повысить вероятность ядерных аварий.

В 2016 году под эгидой ООН была создана группа правительственных экспертов (ГПЭ) для рассмотрения вопроса о возможности регулирования САС, работа которой из-за позиции коллективного Запада, стремившегося закрепить мнимое превосходство в разработке САС, успеха не имела.

С целью соблюдения обязательств по международному праву, в том числе международному гуманитарному праву (МГП), а также для взаимодействия с иностранными партнерами в сфере ИИ, 26 июля 2022 года Министром обороны России была утверждена Концепция деятельности Вооруженных Сил Российской Федерации в сфере разработки и применения систем вооружений с использованием технологий ИИ. 

По инициативе России данная Концепция стала основой для рассмотрения в ГПЭ в марте и мае 2023 года Конвенции о запрещении или ограничении применения конкретных видов обычного оружия, которые могут считаться наносящими чрезмерные повреждения или имеющими неизбирательное действие[39].

Россия активно продвигает на площадке ООН свою позицию, заключающуюся в том, что международное право, в т.ч. МГП, применимо к перспективным вооружениям и технике, обладающим высокой степенью автономности, и не нуждается в модернизации или адаптации в связи с их спецификой. Неукоснительное соблюдение норм МГП в ситуациях вооружённых конфликтов остаётся одним из приоритетов России.

Призыв ЮНЕСКО внедрить рекомендации по этическим аспектам ИИ

В ноябре 2021 года 193 государства-члена единогласно приняли Рекомендацию ЮНЕСКО об этических аспектах ИИ. Роль документа заключается в оказании помощи государствам-членам в соблюдении ими основополагающих прав, закрепленных в Уставе ООН и Всеобщей декларации прав человека, а также в обеспечении того, чтобы при проведении исследований, проектировании, разработке и внедрении систем ИИ учитывались такие факторы, как благосостояние человечества, охрана окружающей среды и устойчивое развитие.

После обращения в марте 2023 года более 1000 экспертов с инициативой приостановить обучение мощных систем ИИ ЮНЕСКО призвало все страны незамедлительно внедрить Рекомендацию ЮНЕСКО об этических аспектах ИИ. «Миру нужны более строгие в этическом отношении правила для искусственного интеллекта: это вызов нашего времени. Рекомендация ЮНЕСКО об этических аспектах ИИ устанавливает соответствующие нормативные рамки», –Генеральный директор ЮНЕСКО Одрэ Азуле.[40]

Генсек ООН А. Гутерриш за создание глобальной системы контроля за ИИ[41]

Генсек ООН предложил создать организацию надзора и регулирования ИИ по аналогии с МАГАТЭ. По его словам, новые технологии развиваются с невероятной скоростью, как и связанные с ними угрозы. Тревожные звоночки по поводу новейшей формы – генеративного ИИ – оглушительны, и громче всего они звучат от разработчиков, которые его создали. Эти ученые и эксперты призвали мир действовать, объявив ИИ экзистенциальной угрозой человечеству наравне с риском ядерной войны.

Гутерриш признал, что формирование такого агентства будет сложным и потребует сотрудничества правительственных учреждений и частных компаний. Участие последних означает, что они согласятся на аудит своего программного обеспечения и контроль возможностей. Организация, подобная МАГАТЭ, должна отвечать за инспектирование систем ИИ, требующих высокого уровня вычислительных ресурсов.

Представляется, что для обеспечения международной безопасности предложения России в ГПЭ ООН по САС, Генсекретаря ООН А.Гутерриша по созданию агентства по контролю за ИИ и Гендиректора ЮНЕСКО О.Азуле об этических аспектах ИИ в высшей степени актуальны. Главное – не на словах, а на деле обеспечить равноправное участие всех государств-участников ООН.

 

Мнение автора может не совпадать с позицией редакции

 

[1] Си́напс (греч. σύναψις, от συνάπτειν — обнимать, обхватывать, пожимать руку) — место контакта между двумя нейронами или между нейроном и получающей сигнал эффекторной клеткой.

[1] : Гринченко С. Н. Генезис искусственного интеллекта в системе Человечества: кибернетическое представление / С. Н. Гринченко. — DOI 10.25559/ SITITO.16.202003.643-652 // Современные информационные технологии и ИТ-образование. — 2020. — Т. 16, № 3. — С. 643-652.

[2] Цифровые международные отношения: В двух томах. Т. 1 / под ред. Е.С. Зиновьевой, С.В. Шитькова. — Москва: Аспект Пресс, 2023. — 354 с.

[3] Елена Ларина, Владимир Овчинский ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ НА ВОЙНЕ Совет по внешней и оборонной политике. Новости 13.05.2023. https://svop.ru/main/46913/

[4] https://chat-gpt.org/ru

[5] Твиттер разработчика Сики Чен пост от 27.03.2023 https://twitter.com/blader/status/1640217165822578688?s=20

[6] Концепция внешней политики Российской Федерации (утверждена Президентом Российской Федерации В.В. Путиным 31 марта 2023 г.) https://www.mid.ru/ru/detail-material-page/1860586/

[7] Парад Победы на Красной площади. Новости о Президенте России (kremlin.ru) http://www.kremlin.ru/events/president/transcripts/71104

[8] Глазьев С.Ю. Уроки современной революции: крах либеральной утопии и шанс на «экономическое чудо» / С.Ю. Глазьев. — М.: Издательский дом «Экономическая газета», 2011. — С. 330.

[9] NATO: Summary of the NATO Artificial Intelligence Strategy, 22.10.2021 https://www.nato.int/cps/en/natohq/official_texts_187617.htm

[10] National AI Strategy https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/1020402/National_AI_Strategy_-_PDF_version.pdf

[11] NATO: НАТО усиливает технологическое преимущество с помощью инновационных инициатив, 07.04.2022 https://www.nato.int/cps/ru/natohq/news_194587.htm?selectedLocale=ru

[12] https://diana.nato.int/about-diana.html

[13] NATO: Заместитель генерального секретаря НАТО открывает европейское региональное отделение DIANA и приветствует управляющего директора, 30.03.2023 https://www.nato.int/cps/ru/natohq/news_213288.htm?selectedLocale=ru

[14] https://diana.nato.int/who-we-are.html

[15] Официальный сайт Белого дома. Заявление от 22.10.2022 https://www.whitehouse.gov/briefing-room/statements-releases/2022/10/12/fact-sheet-the-biden-harris-administrations-national-security-strategy/

[16] Доклад комиссии по искусственному интеллекту по конкурентоспособности, инклюзивности и инновациям Торговой палаты США https://www.uschamber.com/assets/documents/CTEC_AICommission2023_Exec-Summary.pdf

[17] Военно-морской институт США. Новости от 09.03.2023 https://news.usni.org/2023/03/09/pentagons-joint-concept-for-competing

[18] Центр стратегических международных исследований CSIS https://www.csis.org/analysis/seven-critical-technologies-winning-next-war

[19] Южно-Китайская утренняя почта (scmp.com) Китайский суперкомпьютер впервые в мире создал модель искусственного интеллекта «в масштабе мозга» https://www.scmp.com/news/china/science/article/3182498/china-supercomputer-achieves-global-first-brain-scale-ai-model

[20] The Diplomat 27.07.2017 https://thediplomat.com/2017/07/chinas-artificial-intelligence-revolution/

[21] securitylab.ru. Новости. 16.01.2023 Китай усилит роль ИИ в военных конфликтах https://www.securitylab.ru/news/535643.php?clear_cache=Y

[22] South China Morning Post 12.06.2023 https://www.scmp.com/economy/article/3223739/global-impact-top-brass-china-us-failed-meet-shangri-la-dialogue-they-still-had-plenty-say

[23] The Hill 19.06.2023 https://thehill.com/policy/international/4056790-blinken-calls-for-xi-to-police-chinese-companies-aiding-russias-military/

[24] Совет по внешней и оборонной политике (svop.ru) Елена Ларина, Владимир Овчинский Искусственный интеллект на войне 13.05.2023 https://svop.ru/main/46913/?ysclid=lin655iy77129365095

[25] Официальный сайт Правительства США Национальная инициатива по искусственному интеллекту https://www.ai.gov/

[26] Future of Life Institute Pause Giant AI Experiments: An Open Letter 22.03.2023 https://futureoflife.org/open-letter/pause-giant-ai-experiments/

[27] Yahoo.com. Fact or Fiction: Hillary Clinton endorses Ron DeSantis for president? https://news.yahoo.com/fact-fiction-hillary-clinton-endorses-023408380.html

[28] THE CENTER FOR AI SAFETY (safe.ai) Statement on AI Risk https://www.safe.ai/statement-on-ai-risk

[29] The New York Times A.I. Poses ‘Risk of Extinction,’ Industry Leaders Warn 30.05.2023 https/www.nytimes.com/2023/05/30/technology/ai-threat-warning.html

[30] Talk.TV «Two Years To Control AI Before Computers Start Threatening The Human Race» https://www.youtube.com/watch?v=wn4z1WnR6K0

[31] The Grayzone. Ben Norton·Behind NATO’s ‘cognitive warfare’: ‘Battle for your brain’ waged by Western militaries 08.10.2021 https://thegrayzone.com/2021/10/08/nato-cognitive-warfare-brain/

[32] Cognitive Warfare Project - Reference Documents https://www.innovationhub-act.org/cw-documents-0

[33] Официальный сайт Правительства Канадыь Fall 2021 NATO Innovation Challenge https://www.canada.ca/en/department-national-defence/campaigns/fall-2021-nato-innovation-challenge.html

[34] http://static.kremlin.ru/media/events/files/ru/AH4x6HgKWANwVtMOfPDhcbRpvd1HCCsv.pdf

[35] Национальный портал в сфере Искусственного интеллекта https://ai.gov.ru/

[36] РБК Тренды. С чистого листа: что будет с искусственным интеллектом в России в 2023-м https://trends.rbc.ru/trends/industry/64524e8f9a794777f165c28e

[37] tproger.ru YandexGPT против ChatGPT: сравнение возможностей https://tproger.ru/articles/yandexgpt-protiv-chatgpt-sravnenie-vozmozhnostej/

[38] Официальный сайт Администрации Президента РФ. События. Пленарное заседание Петербургского международного экономического форума http://www.kremlin.ru/events/president/news/71445

[39] https://docs-library.unoda.org/Convention_on_Certain_Conventional_Weapons_-Group_of_Governmental_Experts_on_Lethal_Autonomous_Weapons_Systems_(2023)/CCW_GGE1_2023_WP.5_0.pdf

[40] Официальный сайт ЮНЕСКО. Пресс-релизы. 30.03.2023 ЮНЕСКО призывает все правительства незамедлительно внедрить свою Рекомендацию об этических аспектах искусственного интеллекта https://www.unesco.org/ru/articles/yunesko-prizyvaet-vse-pravitelstva-nezamedlitelno-vnedrit-svoyu-rekomendaciyu-ob-eticheskikh?hub=701

[41] ER10 ООН предлагает создать международный орган по регулированию ИИ https://er10.kz/read/it-novosti/oon-predlagaet-sozdat-mezhdunarodnyj-organ-po-regulirovaniju-ii/

Читайте другие материалы журнала «Международная жизнь» на нашем канале Яндекс.Дзен.

Подписывайтесь на наш Telegram – канал: https://t.me/interaffairs

Версия для печати