Европейских ученых все больше тревожит развитие в Европейском Союзе программ по созданию «роботов-убийц», официально называемых «полностью автономными системами вооружений» (fully autonomous weapons). Эти пугающие даже видавших виды специалистов вооружения используют искусственный интеллект (ИИ), и в последние годы английская аббревиатура, обозначающая это явление (artificial intelligence - AI), становится все более привычной на страницах европейских изданий. Больше того, относительная дешевизна роботов-убийц по сравнению с ядерным оружием может создать у политиков искушение найти недорогой «ассиметричный ответ» дорогостоящим оборонным программам враждебных стран. А это – прямой путь к «гонке терминаторов», то есть к новой гонке вооружений, при которой страны соревноваться будут уже не в создании ядерных зарядов и средствах их доставки, а в конструировании не знающих жалости, страха и усталости «автономных систем вооружений» с высоким потенциалом ИИ.
ОТКРЫТОЕ ПИСЬМО УЧЕНЫХ
В открытом письме 177 европейских ученых, адресованном прежде всего ответственным лицам в Евросоюзе[1], отмечается, что расходы, выделяемые ЕС на роботов-убийц, во много раз превышают суммы, направляемые на недопущение будущих вооруженных конфликтов в Европе. Беспокойство подписавших письмо ученых, среди которых ведущие исследователи в области искусственного интеллекта из Германии, Великобритании, Франции, Италии, Бельгии и 12 других стран, вызывает тот факт, что кураторство над созданием роботов-убийц взяло на себя Европейское оборонное агентство (EDA) – малопрозрачная новая структура ЕС, основанная в 2004 году и возглавляемая первые пять лет экс-генсеком НАТО Хавьером Соланой.[2] Этот политик, несущий прямую ответственность за агрессию НАТО против Югославии, в 2009 оставил свой пост преемникам, но стиль управления в организации остался прежний, «солановский» – закрытость и агрессивность в сочетании с убаюкивающими улыбками для «международного сообщества». Сейчас организацию возглавляет руководительница европейской дипломатии Федерика Могерини, которую даже лояльный к ЕС сайт EU-Observer обвиняет в закрытости по вопросу о роботах-убийцах и в недопущении представителей критически настроенной к ВПК научной общественности в «Глобальный Технический Совет» (Global Tech Panel), призванный надзирать над вводом автономных систем вооружений с искусственным интеллектом (ИИ) в европейские вооруженные силы. [3]
Вот что пишут в своем открытом письме 177 европейских ученых, оппонирующих деятельности EDA в области автономных систем вооружений:
«Разрабатываемые сегодня учеными системы вооружений в будущем станут объектом покупки с целью ведения войн будущего. Между тем научные разработки, которые могли бы способствовать предотвращению вооруженных конфликтов, находятся в небрежении. А ведь налоги граждан Евросоюза идут в данном случае на нечто особое – не на стандартную военную технологию. Судя по ежегодной конференции Европейского оборонного агентства, фокус внимания ЕС перемещается после дронов на автономные системы вооружений. Такие полностью автономные системы, известные также как роботы-убийцы, смогут выбирать и уничтожать цели самостоятельно, без вмешательства человека. Из-за этой своей особенности они не смогут исполнять международные стандарты гуманитарного права, включая правила использования военной силы – необходимость отличать комбатантов от мирного населения, пропорциональность использования силы, следование исключительно требованиям военной необходимости. Между тем автономные системы вооружений смогут представлять собой угрозу фундаментальному праву человека на жизнь и принципу человеческого достоинства», - говорится в заявлении ученых[4].
УСТРАШАЮЩИЕ ПРОЕКТЫ
В своем открытом письме 177 ученых раскрывают несколько устрашающих проектов использования роботов-убийц, некоторые из которых исходят от стран Северной Европы, лишь по отжившему стереотипу считающихся мирными или даже пацифистскими государствами[5]:
«С начала нынешнего года Европейский Союз начал финансировать военный проект, называемый Океан-2020 (Ocean 2020). Это проект, призванный создать интегрированную систему воздушных, надводных и подводных дронов. Цель – проводить военно-морские операции… Другой противоречивый проект, который, по слухам, будет следующим на очереди, - это «вооруженный наземный дрон», его развивают совместно Эстония, Латвия и Финляндия. Этот полуавтономный «друг солдата» на поле боя будет в состоянии узнавать и уничтожать цели на дистанции до 5 километров. В дополнение к самоходной установке этот дрон будет иметь элементы автономного «мышления», кибер-защиты и целый набор датчиков». [6]
У ученых – авторов открытого письма вызывает серьезные сомнения способность этих самых датчиков отличить вражеского солдата от представителя мирного населения. Впрочем, и против вражеских солдат в современном мире не все виды оружия применимы – существуют же запреты на химическое и бактериологическое оружие.
О том, что роботы-убийцы могут быть опасны для человечества и при применении исключительно против комбатантов, ученые предупреждают давно – еще в 2015 году «Международная жизнь» рассказала о резолюции 24-й Международной объединенной конференции по искусственному интеллекту. Эта резолюция призывала отказаться от создания боевых роботов с искусственным интеллектом.[7] Среди подписавших резолюцию были и покойный великий британский физик Стив Хокинг, и основатель флагманской компании в области искусственного интеллекта Deep Mind Демис Хассабис. Эти авторитетные профессионалы отмечали, что роботы-убийцы могут стать третьей глобальной революцией в военном деле, сыграв такую же роль, какую когда-то сыграли основанное на порохе огнестрельное оружие и атомная бомба.
БОРЬБА ЗА МИР – ВПОЛСИЛЫ
Было бы странно, если бы лицемерные политики США и ЕС не постарались отметиться на популярной теме борьбы с этой грядущей революцией в военном деле. Первыми поторопились присоединиться к выигрышной с точки зрения имиджа борьбе с роботами-убийцами депутаты Европейского Парламента. 12 сентября 2018 года Европарламент принял резолюцию, с энтузиазмом подхваченную лояльной ЕС лево-либеральной европейской прессой.[8] Резолюцию, вроде как направленную против применения роботов-убийц и напоминающую разработчикам такого оружия о противоречии их действий общим принципам морали.[9] Но при внимательном прочтении становится ясно, что эта резолюция чиновников ЕС и страны-члены ни к чему не обязывает. В резолюции страны-члены ЕС и Европейский Совет призываются «поработать над тем, чтобы начать международные переговоры о юридически обязывающем документе, запрещающем смертоносные автономные системы вооружений» (LAWS - lethal autonomous weapons systems).
Но «призывать поработать» без штрафных санкций за бездействие можно сколько угодно – воз от этого не сдвинется. Кроме того, Европарламент, занимая резко агрессивную позицию в отношении России, противоречит собственному «техническому» пацифизму: если у восточноевропейских рубежей ЕС стоит такой могучий и высокотехнологичный враг, как российские вооруженные силы, то почему бы не упредить его действия, первым сделав шаг к третьей революции в военном деле? А приводить примеры антироссийских страхов и связанных с ними алогичных действий Европарламента можно часами: взять хотя бы недавние конфронтационные резолюции по Азовскому морю и выставленный на обсуждение проект выхода ЕС из Соглашения по партнерству и сотрудничеству между РФ и ЕС от 1997 года. [10]
ДЕНЬГИ – РОБОТАМ
В итоге получается, что фонды ЕС уже полноводной рекой текут на финансирование роботов-убийц, и это финансирование вполне вписывается в параноидальную политику ЕС по защите, скажем, прибалтийских и скандинавских стран от якобы вполне реальной «российской агрессии». (Неслучайно именно Финляндия, Латвия и Эстония отличились в разработке «наземного» робота-убийцы.) Так, EU-Observer еще в мае 2018 года сообщил, что из 500 миллионов евро, выделенных ЕС на текущий финансовый год на разработку новых видов оружия, финансируются и «роботы-убийцы».[11] Принятый Европарламентом бюджет запрещает разработку лишь тех видов оружия, которые запрещены многосторонне принятыми международными документами. А роботы-убийцы, то бишь автономные системы вооружений, пока не запрещены – идут лишь споры о точном юридическом определении этого нового типа оружия.
США НЕ СДАЮТ СВОИХ «КИЛЛЕРОВ»
Стоит отметить, что США, в отличие от ЕС, даже не лицемерят: эта страна делает все возможное, чтобы международные документы, ограничивающие использование искусственного интеллекта в военных целях, не были приняты.
Как сообщает Deutsche Welle, боевые роботы осуждаются в Женеве на переговорах в рамках конвенции о «некоторых типах обычных вооружений» (Convention on Certain Conventional Weapons - CCCW). Так вот, по данным той же «Немецкой волны», летом этого года американская сторона на этих переговорах попробовала представить этих роботов в позитивном свете как «гуманное оружие», поскольку это оружие якобы позволяет ограничить жертвы среди мирного населения. Американская делегация даже лицемерно предложили вместе бороться против «стигматизации» боевого применения искусственного интеллекта. (Обычно на Западе слово «стигматизация» обозначает преследование несправедливо оболганных меньшинств.) Впрочем, в ЕС и в либеральных кругах США отторжение от killer robots так велико, что восстановить их репутацию в ближайшее время не удастся. Скорее всего ЕС и США будут искать лазейки в юридической казуистике вроде вопроса о том, какие виды оружия считать использующими искусственный интеллект, а какие – нет. Реальной целью и США, и ЕС будет абсолютное превосходство над Россией и Китаем в этой области.
Мнение автора может не совпадать с позицией Редакции
[1] https://www.vredesactie.be/unmanned-autonomous-weapons-how-eu-adrift
[2] https://en.wikipedia.org/wiki/European_Defence_Agency
[3] https://euobserver.com/institutional/143154
[4] https://www.vredesactie.be/unmanned-autonomous-weapons-how-eu-adrift
[5] https://euobserver.com/opinion/143510
[6] Там же
[7] https://interaffairs.ru/news/show/13621
[10] http://www.ng.ru/politics/2018-12-04/1_7455_relations.html
Читайте другие материалы журнала «Международная жизнь» на нашем канале Яндекс.Дзен.
Подписывайтесь на наш Telegram – канал: https://t.me/interaffairs