Первые признаки цифровизации избирательных процессов в системном виде были отмечены в ходе президентских выборов США 2008 года, которые дали импульс дальнейшему развитию так называемых «электронных выборов» и обеспечили Бараку Обаме репутацию «первого президента социальных сетей». С этого момента интернет-технологии зарекомендовали себя в качестве основного канала коммуникации и взаимодействия с избирателями. Квинтэссенцией технологического прогресса стали выборы 2024 года в США - первые в мировой практике в условиях широкого использования искусственного интеллекта (ИИ) и нейросетей.

Задачи применения ИИ в избирательной системе обычно подразделяют на организационно-технические и информационные. Существует также подход по классификации инструментов применения ИИ по принципу электоральных периодов: предвыборный, выборный и поствыборный.

На предвыборном этапе ИИ-алгоритмы повышают точность консолидации и управления списками избирателей, регистрации граждан - в том числе по биометрическим данным (черты лица, радужная оболочка глаза, отпечатки пальцев и др.) для обеспечения целостности избирательного процесса. Биометрические системы регистрации (Biometric Voter Registration, BVR) активно тестируются или внедряются для проверки личности и права голоса. В целом в том или ином формате, по данным неправительственной организации IDEA (Международный институт демократии и содействия выборам), около 35% из 130 исследованных стран используют биометрическую информацию для регистрации избирателей1.

Лидерами по применению технологии BVR являются страны Африки и Латинской Америки - это объясняется менее жесткими требованиями к вопросам сбора персональных данных. В других регионах, как правило, еще только создается правовая база и проводятся испытания. Например, в Индии постепенно тестируются технологии регистрации по отпечаткам пальцев, лицу и радужной оболочке глаза2. Дискуссии на тему внедрения биометрических практик верификации проводятся и в России - в 2024 году обсуждалась перспектива применения этой технологии в Москве3.

Кроме того, ИИ-алгоритмы оказывают содействие в аудите списков избирателей на предмет вычленения повторных регистраций, анализе данных избирателей и их сопоставлении с информацией из иных источников для обеспечения прозрачности. Например, в Индонезии функционируют соответствующие ИИ-инструменты фильтрации.

На этом же этапе существует опыт ряда стран по использованию инструментов моделирования для оптимального размещения избирательных участков и распределения иных ресурсов (кабины для голосования, бюллетени, оборудование, работники избирательных комиссий и т. д.), что значительно экономит время и сокращает расходы. Здесь же важны вопросы безопасности - ИИ дает рекомендации по оптимальному расположению мест для голосования с учетом оценки потенциальных рисков насилия.

В информационном плане на предвыборном этапе ИИ облегчает процесс сбора данных об избирателях (в том числе посредством опросов), включая их симпатии/антипатии и предпочтения, а также апробируются ИИ-модели в интересах информационной поддержки электоральных кампаний кандидатов и мобилизации избирателей. В последнем случае ИИ масштабировал агитацию до такого уровня, когда так называемая «синтетическая пропаганда» создает целые «фабрики смыслов» и «лаборатории образов будущего»4.

ИИ осуществляет отбор коммуникационных стратегий в целях адаптации агитации под целевые группы населения. Особенно важен технологический подход для увеличения вовлеченности общественности в избирательные процессы - например, для привлечения людей, традиционно не участвующих в избирательных процессах. В этих целях создается таргетированная реклама с учетом личностных предпочтений различных демографических групп.

Важным треком работы является молодежь, которая задает новые цифровые стандарты. Ярким примером ответной реакции на запрос молодых людей является тестирование и постепенное внедрение технологии цифровых двойников и аватаров кандидатов, способных благодаря большим языковым моделям (Large Language Model, LLM), обученным на основе массива данных (видеозаписи, цитаты и др.), полноценно коммуницировать с аудиторией. Применение аватаров объясняется также попыткой вовлечения молодого поколения к построению прямой демократии и подготовке аудитории к новым формам взаимодействия политиков и гражданского общества.

Так, в 2022 году в ходе выборной кампании Президент Южной Кореи Юн Сок Ёль использовал цифровой двойник на базе ИИ, позволивший ему вести агитацию сразу в нескольких районах страны. Выбор такого инструмента в агитации обусловлен популярностью индустрии K-pop среди корейской молодежи. Похожий политический маневр в виде аватара был применен на выборах в законодательное собрание Дели (Индия) в 2020 году.

Важность работы с поколением «зуммеров», составляющих 30% населения планеты, понимают и в Европе, где ряд политических партий также внедряют аватаров и апробируют ИИ-инструменты генерации контента. Например, в Великобритании предприниматель Стив Эндакотт стал известен благодаря аватару «ИИ Стиву», чтобы, с его слов, «преодолеть разрыв между представителями и представленными». В свою очередь, партии «Альтернатива для Германии» (АдГ) удалось занять в ФРГ второе место на выборах в Европарламент благодаря насыщению инфополя адаптированным под молодежь контентом5.

Что касается выборного этапа, фокус делается на мониторинге, обнаружении и реагировании на фейки посредством ИИ-технологий. Нейронные сети позволяют сэкономить временной ресурс и оперативно купировать дезинформацию. Здесь важен точно выстроенный механизм взаимодействия между участниками электорального процесса, платформами соцсетей, а также частными компаниями и НПО, специализирующимися на разработках ИИ-алгоритмов.

В выборной период существует также необходимость оперативного инцидент-реагирования. Например, большие языковые модели могут мониторить соцсети и с высокой точностью вычленять сообщения об инцидентах, потенциальных актах насилия на избирательных участках и других локациях, а также иных кризисных ситуациях в интересах обеспечения безопасности. Важен трек по отслеживанию комментариев пользователей с критикой или рекомендациями для выстраивания обратной связи и минимизации негативного информационного фона. Чат-боты способны в круглосуточном режиме отвечать на вопросы избирателей и выстраивать различные формы взаимодействия, экономя время для политтехнологов.

На поствыборном этапе ИИ может быть применен для аудита, подведения выводов и оценки эффективности распределения ресурсов, финансирования кампании, информационной работы и др. Обобщение данных производится, в частности, через статистические модели ИИ.

Однако внедрение ИИ и нейросетей в электоральных процессах сопряжено с определенными рисками.

Во-первых, довольно часто ИИ страдает алгоритмичной уязвимостью, или так называемыми генеративными «галлюцинациями», сопровождающимися ошибочными выводами и несоответствиями, что является критичным в такой чувствительной сфере, как выборы, и требует человеческого контроля.

Ошибки, допускаемые нейросетями, могут привести к прямой дискриминации - например, лишить избирателей законного голоса под предлогом ошибочной фиксации повторной регистрации или невозможности сопоставления подписей и биометрических данных.

Во-вторых, довольно остро стоит проблема кражи персональных данных, манипуляции избирателями и других видов мошенничества, что может стать фактором, отпугивающим людей от участия в электоральных процессах.

В-третьих, одной из наиболее распространенных целей применения ИИ является генерация дезинформации. Так, поисковые алгоритмы соцсетей содействуют одним политическим силам в дискредитации других. Одним из наглядных примеров политической борьбы в соцсетях является ситуация вокруг выборов в Европарламент в 2024 году, когда разгорелся скандал из-за якобы наличия сговора между партией АдГ и платформой «TikTok» в целях программирования поискового алгоритма. Обвинения сводились к тому, что поисковая система предлагала пользователям рекомендации, очерняющие репутацию конкурентов с привязкой к их личной жизни, или случайные поисковые предложения (например, при поиске контента партии «Зеленые» предлагалось «жена Хабека уходит», при поиске Социал-демократической партии Германии - «бисексуальная принцесса» и др.). Формат представляет собой пустой кликбейт, не подкрепленный реальными видео- и фотоматериалами6.

Серьезные риски связаны с распространением технологии дипфейк по мере появления мощных графических процессоров. Одним из наиболее популярных форматов дипфейка является мнимое видео-признание конкурента в коррупции или нарушении законодательства. Подобный кейс, например, был зафиксирован в 2023 году в Южной Корее, где в местном сегменте «TikTok» был загружен фейковый материал с признанием президентом своей коррупционной деятельности7. В ходе парламентских выборов во Франции в 2024 году в Сети появилось сразу несколько дипфейк-видео, на одном из которых, предположительно племянницы Марин Ле Пен (партия «Национальное объединение»), катаются на лыжах, танцуют в нижнем белье и высмеивают расовые меньшинства Франции8. Примечательно, что ряд видеоматериалов набрали более двух миллионов просмотров.

Не менее резонансными продолжают оставаться сгенерированные ИИ изображения, получающие оперативное распространение в Сети и становящиеся мемами. Причем изображения создаются как в целях дискредитации оппонента (например, изображение Камалы Харрис в коммунистическом наряде), так и для создания привлекательного образа кандидата и пиара собственных нарративов. Примером последнего являются созданные сторонниками Дональда Трампа фейковые фотографии, на которых Трамп изображен в компании темнокожих людей, чтобы продемонстрировать популярность среди этой категории избирателей и перетянуть колеблющихся афроамериканцев в республиканский стан9. По мнению специалистов, эти факторы способствуют потере аудиторией доверия к медиаинформации и усиливают их психологическую напряженность. Неслучайно на фоне широкого применения ИИ в электоральных кампаниях ряд экспертов ввели в оборот понятие «психическая безопасность избирателей»10.

Другая разновидность фейков - автоматизированные звонки (robocall), основанные на подделке голоса благодаря технологии ИИ-клонирования. Подобные звонки, например, фиксировались в США с использованием голоса Джо Байдена, чтобы отговорить избирателей от участия в голосовании. При этом политконсультант Стив Крамер, который был организатором звонков, признался, что сделал это как акт гражданского неповиновения, чтобы привлечь внимание к опасностям применения ИИ в политике11.

Еще один механизм дезинформации - использование генеративного ИИ для манипуляции трафиком, а также упрощения процесса программирования ботов, продвигающих на платформах соцсетей хэштеги, фото- и видеоматериалы. На медийном рынке Индии, являющемся одним из лидеров в этой области, генеративный ИИ помогает производить фейки почти на всех электоральных уровнях ввиду недостаточной эффективности законодательного регулирования.

В западных странах также активно применяется практика хэштегирования, генерируемая ботами. Так, в 2021 году в ФРГ в отношении кандидата Армина Лашета (партия ХДС/ХСС) была запущена масштабная кампания по дискредитации с тегом #laschetlacht (#лашетсмеется) в ответ на его неудачное поведение (в том числе смех) в ходе посещения региона Германии, пострадавшего от наводнения с людскими жертвами12.

С другой стороны, часто беспорядочный мировой опыт применения генеративного ИИ позволяет различным акторам международных отношений безапелляционно обвинять друг друга в манипуляциях. Например, именно под предлогом использования ИИ коллективный Запад периодически разворачивает безосновательные кампании с обвинениями в адрес внешнего влияния иностранных субъектов (foreign actors) в электоральные процессы. В частности, Россия неоднократно становилась объектом подобных нападок (в выборы США в 2016 г., в референдум по Brexit в 2016 г., в парламентские выборы в Великобритании в 2017 г.). Двойные стандарты Запада наглядно заметны на примере того, как в преддверии выборов в США 2024 году ИИ применялся для генерации фейков уже на внутригосударственном уровне самими же штабами кандидатов, а отнюдь не внешними субъектами.

Кроме того, существует проблема отсутствия достаточного оперативного реагирования государственных институтов на генерируемую ИИ дезинформацию. Это связано как с полиакторностью в информационном пространстве (наличие блогеров, инфлюэнсеров, ЛОМов и пр.), так и с недостаточностью нормативно-правового регулирования. На этом фоне остро стоят задачи по адаптации государственных органов к новой технологической парадигме - разработке технологий выявления и обнаружения дипфейков, создания системы по проверке безопасности и надежности продуктов и услуг ИИ, выстраивании международного сотрудничества в уголовных расследованиях, а также пересмотре действующего законодательства13. Например, начиная с 2023 года подобные инициативы прорабатываются в Европе в ответ на стремительно набирающие популярность нейросети, а с 1 февраля 2025 года в Европейском союзе вступил в силу регламент по использованию искусственного интеллекта (AI Act), признающийся первым в мире правовым актом подобного типа. Ряд государств (Канада, Новая Зеландия, Япония и пр.) движутся в похожем направлении относительно разработки соответствующих руководств по использованию ИИ14.

Правда, при всем понимании рискованности темы с применением ИИ в экспертном сообществе и гражданском обществе в ЕС присутствует противоположная точка зрения - с критикой регулирования ИИ. В частности, правовые акты вводят традиционные для европейских институтов дополнительные бюрократические барьеры, требующие обеспечения соблюдения новых норм и расследования их нарушения. Кроме того, подобные инициативы подрывают технологический потенциал, конкурентоспособность и, соответственно, приводят к потере технологического суверенитета ЕС в отличие от США и Китая, которые ставят рост отрасли в приоритет.

Наконец, на фоне принятия нового акта обострилась дискуссия о целесообразности так называемых ИИ-пауз, подразумевающих остановку ряда научных разработок и обучение более мощных систем, что является серьезным отклонением от логики научного развития человечества. Наиболее известным призывом к «паузе» стало открытое письмо Института будущего жизни (Future of Life Institute) с предложением приостановить на шесть месяцев некоторые виды исследований в области ИИ со ссылкой на серьезные риски для общества и человечества15.

Этот призыв, по всей видимости, остается неуслышанным - гонка ИИ между мировыми лидерами в этой области - США и КНР, вкладывающими большие средства и усилия в научные исследования, свидетельствует о том, что перспектива паузы в развитии ИИ маловероятна.

 

 

1https://www.idea.int/news/five-things-know-about-biometric-voter-registration

2https://www.idea.int/sites/default/files/2024-04/artificial-intelligence-for-electoral-management.pdf

3https://tass.ru/politika/20232845

4https://rfsv.ru/breaking-news/iskusstvennyi-intellekt-kak-ugroza-svobodnym-vyboram

5https://www.tagesschau.de/inland/gesellschaft/rechtsextremismus-jugendliche-100.html

6https://www.wired.com/story/tiktok-german-voters-afd/

7https://thediplomat.com/2024/05/ai-and-elections-lessons-from-south-korea/

8https://www.euractiv.de/section/innovation/news/skandal-um-deepfake-videos-von-le-pens-familie-erschuettert-frankreich-vor-eu-wahlen/

9https://www.bbc.com/news/world-us-canada-68440150

10https://dokumen.pub/the-palgrave-handbook-of-malicious-use-of-ai-and-psychological-security-9783031225529-9783031225512-3031225511.html

11https://www.nbcnews.com/politics/2024-election/democratic-operative-admits-commissioning-fake-biden-robocall-used-ai-rcna140402

12https://www.dw.com/ru/germania-pered-vyborami-eksperty-prizyvaut-ne-sdat-socseti-populistam/a-70796826

13https://interaffairs.ru/virtualread/ia_rus/92024/files/assets/downloads/publication.pdf

14https://iapp.org/media/pdf/resource_center/global_ai_law_policy_tracker.pdf

15https://futureoflife.org/open-letter/pause-giant-ai-experiments/