ГЛАВНАЯ > Экспертная аналитика

Искусственный интеллект – «панацея» или «бич»

11:08 06.08.2020 • Андрей Кадомцев, политолог

Известный бизнесмен и визионер Илон Маск вновь заявил о том, «что искусственный интеллект (ИИ) — опасная для человечества технология, способная дестабилизировать ситуацию во всем мире». А нежелание «многих умных людей» признать угрозу выхода ИИ из под контроля человека – признак «высокомерия». Еще в 2016 Маск предупреждал, что «человек может стать домашним питомцем для машин, захвативших власть». Наибольшее беспокойство Маска вызывают разработки, осуществляемые подразделением Google, известные как Deep Mind. Вместе с тем, признает Маск, «это не значит, что через пять лет все отправится в ад…. Только то, что ситуация станет нестабильной и странной»[i].

Противоречивость слов Маска отражает общую размытость понимания феномена «искусственного интеллекта», до сих пор существующую не только в общественном мнении, но и среди признанных специалистов. По меньшей мере, с 1950 года, когда Алан Тьюринг предложил свой знаменитый тест, призванный определить, способна ли машина мыслить, идут бурные дискуссии как о природе разума, так и «возможности существования разумных машин».

По мнению большинства специалистов, нынешний уровень развития технологий «еще рано называть» «искусственным интеллектом». Пока, речь идет о достигших очень высокого уровня методах машинного обучения, решающих когнитивные задачи с помощью методов математики и статистики. Важнейшим прорывом на сегодняшний день стало создание нейронных сетей, которые существенно расширили возможности разработки и внедрения прикладного программного обеспечения (ПО) за пределы узкоспециализированных исследований. Тем не менее, ИИ по-прежнему остается на «слабом» уровне (weak AI), способном эффективно решать «строго прикладные», «шаблонные» задачи, используя имеющиеся у него данные «с минимумом новых неизвестных».

В целом, оптимисты полагают, что ИИ едва ли когда-либо сможет превзойти интеллект человека в способности «создавать и изобретать». Пессимисты – что, на начальном этапе, рост инвестиций в ИИ приведет к торможению программ развития человеческого потенциала на корпоративном и государственном уровне. А в дальнейшем – ИИ может и вовсе «поработить» человечество, вплоть до реализации сценариев, описанных в самых пугающих антиутопиях. По мнению же реалистов, «коренной переворот в развитии ИИ… произойдет [лишь] тогда, когда машина сама начнет ставить себе задачи»[ii].

В 2018 году Google представила свою технологию Автоматического машинного обучения (AutoML), существенно упростившую и удешевившую применение машинных алгоритмов «к задачам реального мира». Качественно понизилась стоимость «входного билета» для желающих разрабатывать «ИИ генерирующий ИИ». Искусственный интеллект стал стремительно обретать "стратегический" характер, поскольку политики и военные, прежде всего, США и Китая, двух стран, лидирующих в области разработки технологий машинного обучения, увидели в нем едва ли не универсальный ключ к успеху в любой сфере, связанной с обработкой больших объемов информации.

Быстро возникло представление о том, что ИИ обладает практически неограниченным потенциалом, поскольку представляет собой «инновационный подход к созданию инноваций в любых областях деятельности человека, так или иначе, связанных с накоплением значительных объемов информации». «Лавинообразный рост возможностей машинного обучения заставил говорить о спектре IT технологий, объединенных метафорическим обозначением «Искусственный интеллект» (ИИ) как о ключевом факторе экономического, геополитического и военного могущества ближайших десятилетий», отмечал еще в 2018 году Сергей Карелов, председатель Лиги независимых IT-экспертов и член РСМД.

В ноябре 2019 года, Комиссия по вопросам национальной безопасности в области искусственного интеллекта, учрежденная Конгрессом США, высказала мнение, согласно которому системы, основанные на ИИ, могут изменить глобальный баланс сил столь же фундаментальным образом, в какой электричество повлияло на все стороны жизни общества и военное дело в 19 столетии. Так, в военной сфере, ИИ, в теории, способен обнаруживать и поражать цели и объекты, которые прежде считались «трудно-» либо вовсе «неуязвимыми». Что, в свою очередь, будет подталкивать стороны, вовлеченные в любой военный кризис, к нанесению обезоруживающего первого удара.

К настоящему времени, практически все ведущие страны мира обнародовали свои стратегии в области развития ИИ. Все подобные документы отмечены двумя тенденциями: во-первых, «ИИ-национализмом» - идеей о целесообразности отказа от «всестороннего международного сотрудничества» и перехода к безусловному приоритету национальных стратегических интересов в развитии ИИ. И, во-вторых, «ИИ-национализацией» - «интеграции ресурсов государства и частных компаний» во имя приоритета «экономических, геополитических и военных преимуществ» государства «на международной арене»[iii].

Поскольку три четверти суперкомпьютерной мощности мира контролируются США и КНР, эксперты в области искусственного интеллекта уже высказывают опасения относительно перспектив стремительного роста «цифрового неравенства». Звучат опасения относительно перспектив «ИИ-неоколониализма», при котором страны-аутсайдеры окажутся в полной зависимости от поставщиков ИИ решений, которые, в свою очередь, окажутся вовлечены в «самораскручивающуюся» «гонку ИИ-вооружений».

При всем том, едва ли не на каждый аргумент «за» внедрение ИИ есть не менее весомый "против". Так, гипотетические преимущества на поле боя сводятся на нет угрозой тотальной неконтролируемой эскалации. Вплоть до сценария «ИИ сингулярности», при котором «искусственный разум» либо вовсе уничтожает человечество, либо превращает его в «расходный материал» для собственных нужд. В августе нынешнего года вышел отчет Центра по вопросам безопасности и передовых технологий при Джорджтаунском университете США, согласно которому «ценность коммерческих данных и моделей машинного обучения для военных приложений крайне мала». А больших успехов сулит «синтетическая генерация [прикладных] данных», в которой и Китай, и Америка, пока «преуспели не сильно»[iv].

Тем не менее, США уже в 2018 году заявили в качестве цели своей политики в области искусственного интеллекта «достижение абсолютного превосходства». Об этом говорится и в Стратегии национальной безопасности, и в Национальной военной стратегии, обнародованных администрацией Трампа. Подобных целей едва ли возможно достичь без передачи ИИ функций и полномочий стратегического управления боевыми действиями. Однако, во-первых, в случае такого делегирования, правительство рискует полностью утратить контроль над процессом урегулирования кризисов. А то и вовсе потерять «власть» как таковую. И, во-вторых, системы ИИ по самой своей компьютерной природе уязвимы перед хакерскими атаками, а также манипуляциями с исходными данными.

Наконец, ИИ не даром сравнивают с такими универсальными технологиями, как электричество или двигатели внутреннего сгорания. Поэтому ИИ, сам по себе, не является стратегическим оружием. В обозримом будущем, эта технология, скорее всего, лишь в какой-то мере улучшит возможности существующих систем разведки, анализа обстановки и целеуказания, а также потенциал автономных дронов различного назначения. И сосредоточение основных усилий преимущественно на военно-прикладных возможностях ИИ может только замедлить проведение НИОКР. Наконец, подход к соревнованию в области ИИ как к «гонке вооружений» порождает вопрос о конечной цели, о том, что может представлять из себя «победа» в ней. О критериях «эффективности» и «превосходства» при оценке результатов разработки и внедрения технологий ИИ.[v]

В общественно-политической сфере, пессимисты опасаются «тотального» замещения рабочей силы «искусственным интеллектом и роботами». Власть сосредоточится в руках тех, кто контролирует энергетические ресурсы, жизненно необходимые для функционирования цифровых технологий. А также тех, кто держит в своих руках доступ к информации любого рода. При таком сценарии, в обществах возникнут «неофеодальные сословия». А партии и сама демократия могут «стать феноменом прошлого, если [не смогут] ответить на эти вызовы».[vi]

Однако, во-первых, ряд ведущих мировых экономистов уже показали в своих работах[vii], что реализация «нынешней экономической модели внедрения ИИ», за которую ратует «большой бизнес», угрожает всеобщей экономической стагнацией. Ставка на замену людей автоматическими системами, качественно превосходящими их по своему функционалу, грозит «снижением доли рабочей силы в национальном доходе, ростом неравенства и замедлением роста производительности».[viii]

Во-вторых, для контроля над информационным пространством требуются не только технологические новации, но и «социально-идеологическое конструирование». А сохранение власти над информационными потоками «требует не только и не столько введения в оборот на национальном или глобальном уровне неких новых технологических средств, – оно подразумевает соперничество за доминирование в социально-востребованном контенте».[ix]

Отдельная проблема – контроль над деструктивным потенциалом ИИ. Часто звучат аналогии между ИИ и ядерным оружием. Относительно устойчивый международный контроль над угрозой, исходящей от атомной бомбы, был достигнут благодаря сочетанию трех подходов: сдерживания, контроля над вооружениями и технических мер безопасности. Однако, отмечает The Economist, в случае ИИ, сдерживание затруднено меньшей очевидностью угрозы и меньшей ясностью последствий. В основе контроля над вооружениями лежит прозрачность – уверенность в способности понимать намерения другой стороны. В случае же с программным обеспечением, невозможность понять принципы его работы является едва ли не главным «стратегическим преимуществом». Что касается технических мер безопасности, то здесь и вовсе не существует консенсуса относительно возможности их практической реализации даже для существующего ПО.

В 2019 году Генеральная Конференция ЮНЕСКО единогласно одобрила резолюцию о разработке этических норм в области ИИ. Международная группа экспертов планирует подготовить предварительный вариант документов в течение полутора лет. По вопросу регулирования ИИ существуют два основных подхода: «приоритет технологического развития и регулирование по мере понимания возникающих проблем», за который выступают США, Китай и ряд стран Юго-Восточной Азии. И «регулирование на основе принципа предосторожности, исключающее непредвиденные изменения status quo», продвигаемый Евросоюзом[x].

Ключевая проблема – это доверие людей к ИИ. Профессор Оксфордского университета Питер Гриндрод отмечает, что «с точки зрения требований прозрачности больше невозможно полностью полагаться на результаты его работы без понимания механизма принятия решений». В отличие от людей, ИИ «не чувствует ответственности за свои рекомендации, не имеет представления о психике другого человека и ничем не рискует».[xi]

Специалисты Стэнфорда и Массачусетса осенью прошлого года предложили «новый подход к машинному обучению». По их мнению, ответственное поведение алгоритма должно быть заложено уже «в стадии концепции». Нельзя надеяться на контроль «апостериори… с помощью механизма проверяемости». Иными словами, алгоритмы небезупречны по определению. Также необходимо заложить в ИИ безусловную защиту «физической и психической целостности человека», персональных данных, «а также сохранение свободной воли и избежание "влияния мнения"».[xii]

Таким образом, человечеству предстоит научиться уживаться и контролировать технологию, которая потенциально способна не просто уничтожить его. Искусственный интеллект потенциально способен научиться манипулировать людьми в неограниченном масштабе. Несомненно, что в некоторых, критически важных с точки зрения выживаемости человеческого вида, сферах, искусственный интеллект нуждается в ограничениях. Сколь бы «искусственными» они кому-то не казались.

 

Мнение автора может не совпадать с позицией Редакции

 


Читайте другие материалы журнала «Международная жизнь» на нашем канале Яндекс.Дзен.

Версия для печати