ГЛАВНАЯ > Экспертная аналитика

ИИ как политическая угроза: опасения на Западе растут

11:35 21.12.2023 • Андрей Кадомцев, политолог

В следующем году выборы различного уровня пройдут в целом ряде ведущих стран и регионов мира. Среди них Россия, США, ЕС, Индия, Великобритания, Индонезия, Мексика, Тайвань. На фоне нынешнего бума всё более совершенных моделей Искусственного интеллекта, на Западе растут опасения, что новая технология уже способна оказать дестабилизирующее влияние на важные политические события.

Аналитическое подразделение журнала The Economist – Economist Intelligence Unit, среди «вероятных» «наиболее значимых» рисков наступающего 2024 года называет угрозу со стороны Искусственного интеллекта (ИИ) электоральным кампаниям и политическим институтам. По мнению EIU, широкое распространение генеративного ИИ и его использование в социальных сетях в ближайшие годы повысит риск распространения кампаний по дезинформации с помощью текстов, изображений, аудио- и видеоматериалов. Несмотря на меры регулирования, злоумышленники будут стремиться реализовать широкомасштабные кампании, призванные усилить существующий скепсис многих избирателей по отношению к политическим системам.

В свою очередь, датский инвестиционный Saxo Bank, также предлагает потенциально катастрофический по последствиям сценарий с участием ИИ в традиционной десятке «шокирующих предсказаний» на 2024 год. Эксперты включают в нее «маловероятные и недооцениваемые события», из-за которых, тем не менее, «мировые рынки могут испытать серьезный шок». Согласно прогнозу, генеративный ИИ становится угрозой национальной безопасности после того, как преступная группа использует передовой генеративный ИИ с целью ввести в заблуждение высокопоставленного правительственного чиновника. В результате обмана, чиновник одной из развитых стран передает преступникам сверхсекретную информацию государственной важности. Последствия включают в себя крупнейший кризис национальной безопасности со времен Второй мировой войны. В ответ, власти ограничивают доступ третьих лиц к наиболее производительным моделям ИИ по соображениям национальной безопасности. Правила «знай своих клиентов», хорошо известные в банковском секторе, чтобы избежать отмывания денег, навязываются технологическим компаниям, создающим приложения для генеративного искусственного интеллекта, чтобы избежать доступа определенных стран и организаций к этой технологии.[i] Общественное недоверие к информации, генерируемой ИИ, также резко возрастает.

Едва ли не самое большое беспокойство угрозой потенциального вмешательства в выборы с применением ИИ демонстрируют сегодня эксперты и журналисты в США. В начале декабря The Washington Post предупредила своих читателей, что в ходе избирательной кампании 2024 года практически нет сомнений в намерении всех политических сил, а также тех, кто намеренно пытается ввести избирателей в заблуждение, использовать ИИ и т.н. deepfakes[ii] в качестве новейшего оружия в арсенале политических коммуникаций. Ситуация будет развиваться в условиях, когда лишь несколько штатов приняли законы, призванные ограничить распространение фальшивок, а Конгресс пока лишь только обсуждает законопроекты подобного рода.

Первым дипфейком общенационального масштаба в США стало поддельное «видеообращение экс-президента Барака Обамы», увидевшее свет в 2018 году. Автором цифровой «шутки», в которую, тем не менее, поверили многие, оказался актер и режиссер Джордан Пил. Поддельный «Обама» предупредил Америку, что она вступает «… в эпоху, когда наши враги могут создать впечатление, что любой человек говорит что угодно в любой момент времени, даже если он никогда бы не сказал этих вещей».

ИИ уже применяется во внутриполитической борьбе в США. В феврале, в ходе выборов мэра Чикаго, поддельный аудио-ролик, распространявшийся в соцсетях, выставлял фаворита гонки «противником» всего того, за что тот выступал в своей официальной программе. По данным Politico, предвыборная команда Рона ДеСантиса, губернатора Флориды, пытающегося составить конкуренцию Дональду Трампу в борьбе за выдвижение в президенты от Республиканской партии, использовала искусственный интеллект для имитации голоса Трампа в роликах, направленных против бывшего главы Белого дома.

Национальный комитет Республиканской партии также в начале этого года выпустил рекламу, сгенерированную ИИ, в которой изображались хаос и упадок, «которые угрожают США в случае переизбрания Джо Байдена». Опознать постановочный характер роликов было нетрудно, но, при взгляде мимоходом, они явно «могли ввести в заблуждение». В ходе уже развернувшейся кампании 2024 года, ChatGPT, одна из наиболее производительных моделей генеративного ИИ, доступного широкой публике, уже активно используется при составлении черновиков публичных выступлений кандидатов, их маркетинговых материалов, а также в электронных письмах и обращениях с целью сбора средств.

Аналогичные сообщения приходят и из других стран. В Словакии некоторые политики, участвовавшие в последних по времени выборах, обнаружили, что их голоса были клонированы для создания фальшивых роликов, которых они никогда не записывали. В Индии, в преддверии недавних местных выборов, сотни тысяч избирателей получили на свои смартфоны «вирусные» видео, на которых изображены действующие министры правительств штатов, якобы призывающие голосовать против собственных партий. Министр информационных технологий Индии назвал дипфейки «угрозой демократии». Премьер-министр Нарендра Моди также выразил свою обеспокоенность опасными возможностями этой технологии. Наконец, по всему миру, все больше сайтов, ориентированных на избирателей разных стран, поставляют фальшивые новости, выглядящие как настоящие, на десятках языков - от арабского до суахили или японского.

Летом бывший глава Google Эрик Шмидт заявил, что попытки обмануть избирателей с помощью контента созданного ИИ в ходе кампании 2024 года будут носить массовый характер, поскольку новые инструменты сделали передовой ИИ более доступным. По мнению Шмидта, всеобщие опасения относительно долгосрочного влияния ИИ на общество, заслоняют уже существующие угрозы, прежде всего, массовое производство чрезвычайно правдоподобной дезинформации.[iii] Ситуацию усугубляет то, что в последнее время многие крупнейшие технологические компании сокращают персонал, занимающийся модерацией и борьбой с дезинформацией, как под напором обвинений в агрессивной цензуре в ходе выборов 2020 года и пандемии коронавируса, так и на фоне усиливающихся проблем в экономике.

По мнению реалистов, дезинформация является проблемой избирательных кампаний на Западе с незапамятных времен. Теоретически, использование ИИ кардинально меняет количественные возможности производства фальшивок. Поскольку речь идет о росте числа сообщений на несколько порядков, это может повлиять на настроения части избирателей «в последнюю минуту». Вторая проблема – качество фейков становится невероятно реалистичным. А с учетом их количества, возможности оперативного разоблачения и опровержения лжи резко сокращаются. Третий момент – ИИ позволяет создавать предельно персонализированный контент, нацеленный едва ли не на каждого отдельно взятого избирателя. С учетом огромных массивов персональных данных, доступных для анализа, а также той легкости, с которой современные алгоритмы справляются с задачей их деанонимизации, появляется возможность манипулировать информацией, поступающей конкретному пользователю, затрачивая минимальные временные и финансовые ресурсы. 

Вместе с тем, полагают оптимисты, большинство нынешних избирателей на Западе склонны воспринимать все сообщения о политике, даже безусловно достоверные, как спам, независимо от того, где они с ними сталкиваются – на телевидении, в ходе массовых обзвонов, в соцсетях или на интернет-сайтах. ИИ еще не настолько изощрен и человекоподобен, чтобы принципиально изменить подобные массовые настроения. А вот чего уже реально стоит опасаться, так это дальнейшего усиления недоверия к политической системе, росту цинизма и непримиримости в отношении истеблишмента.

Кроме того, для большинства наиболее активных избирателей основными источниками информации остаются традиционные медиа - ТВ, радио, печатная пресса. Люди, руководящие ими, и те, кто создает публикации и материалы, имеют свои политические пристрастия и часто продвигают их, пытаются манипулировать общественным мнением. Однако это – «старая история», и искусственный интеллект в этом случае оказывается лишь вспомогательным инструментом, а не первопричиной новых угроз и вызовов.

Как показывают исследования, нынешние фальшивки хороши главным образом для утверждения взглядов, которых уже твердо придерживаются. И даже очень хорошо подготовленные профессионалы политических коммуникаций практически не способны изменить мнение избирателей при личном общении. Это еще раз показала предвыборная гонка 2020 года. По данным, которые приводит The Economist, политическая поляризация в Америке в последние годы быстрее всего усиливается среди пожилых людей, несмотря на то, что они меньше пользуются интернет-ресурсами, хотя они как раз и считаются потенциально наиболее уязвимыми перед манипуляциями с применением ИИ.

Если сегодня и существует «перспективное направление», где ИИ уже мог бы сыграть определенно значимую роль, то это сети ботов, обученных казаться людьми, координирующие свои действия, чтобы обмануть алгоритмы, используемые крупными социальными медиаплатформами, и придать значимость одним новостным темам и замять обсуждение других. Такой перекос в новостях может еще больше усилиться, если за темы, обсуждаемые в социальных сетях, возьмутся ангажированные СМИ. При этом основная целевая аудитория подобных кампаний – плохо информированные и наименее образованные слои электората, которых легче убедить поверить ложным сообщениям и поделиться этим материалом в своих социальных сетях, чтобы он распространялся все шире и шире. Но даже в этом случае, как показывает практика, манипуляции лучше всего работают, если посты или твиты не являются сугубой подделкой, а лишь подсвечивают темы, выгодные для той или иной стороны. Подобные медиа-операции также «стары как мир», и проводились задолго до появления первых образцов ИИ. Однако новая технология существенно – до 70 процентов, удешевляет решение таких задач, способна уже вскоре сделать ботов неотличимыми от живых людей, но главное - позволяет создавать неограниченное количество оригинальных сообщений.

Достижения в области генеративного ИИ - модели, способные создавать сложные тексты и реалистичные изображения на основе текстовых подсказок, - делают возможным и качественный, и количественный скачок в объемах и изощренности политически значимого вымысла. В то же время, на сегодняшний день ИИ хорош, скорее, в случаях, когда нужно «еще раз» сказать избирателям то, что они уже считают правдой. Технология пока что не превзошла людей, и остается у них под контролем. Как представляется, такое положение вещей было бы очень желательно сохранить и в дальнейшем. Но тенденция в этой области, к сожалению, пока не обнадеживает.

 

Мнение автора может не совпадать с позицией редакции

 

[i] https://www.home.saxo/content/articles/outrageous-predictions/generative-ai-deepfake-triggers-a-national-security-crisis-05122023

[ii] deepfake - слово, объединяющее понятия «глубокого обучения» ИИ - deep learning и «фальшивка» - fake. Речь идет о синтетических видео-, фото- или аудио-материалах, в которых убедительно имитируется внешний вид и/или голос конкретных людей.

[iii] https://www.cnbc.com/2023/06/26/elections-are-going-to-be-a-mess-due-to-ai-ex-google-ceo-schmidt.html

Читайте другие материалы журнала «Международная жизнь» на нашем канале Яндекс.Дзен.

Подписывайтесь на наш Telegram – канал: https://t.me/interaffairs

Версия для печати