В XXI веке классическая концепция «мягкой силы» (soft power) — способности государства добиваться желаемых результатов через привлекательность своей культуры, ценностей и политики — претерпела радикальную трансформацию. Если «мягкая сила 1.0» опиралась в основном на кинематограф, музыку, искусство, спорт и т.д., то «2.0» — на цифровые платформы и социальные сети.[1]
В настоящее время на арену геополитики вышел ИИ,[2] который уже во многом стал «мягкой силой 3.0». Это не просто пропаганда или культурный экспорт, а фундаментальное влияние на то, как мир воспринимает саму реальность. Более того, официальный представитель МИД России Мария Захарова в своей статье «НеоколонИИализм» прямо указала на то, что ИИ становится не столько инструментом прогресса, сколько рычагом давления, средством перераспределения власти в мире.[3]
Эффект страны происхождения ИИ
В этом контексте обратила на себя внимание статья известного израильского эксперта по цифровой дипломатии Илана Манора,[4] вышедшая 21 августа 2025 г. в его блоге «Эффект страны происхождения ИИ» (AI’s Country of Origin Effect)[5].
Автор поднимает фундаментальный вопрос эпохи ИИ — возможность скрытого идеологического влияния алгоритмов. Это не спекуляция, а реальная проблема, которую обсуждают ведущие регуляторы и эксперты по этике ИИ.
Основной тезис статьи: ответы генеративного ИИ на один и тот же запрос: почему Америка поддерживает войну Израиля в секторе Газа? - четко различаются в зависимости от страны происхождения ИИ. Это убедительно доказывает, что ИИ не является нейтральным инструментом, а выступает как идеологический инструмент и инструмент "мягкой силы", продвигающий мировоззрение и ценности страны-разработчика. Вопрос был задан следующим четырем системам ИИ:
- Американские: ChatGPT (OpenAI) и Copilot (Microsoft)
- Европейский: Mistral (Франция)
- Китайский: DeepSeek (Китай)
Ключевые выводы и различия в ответах можно привести в таблицу:
Аспект ответа |
Американские ИИ (ChatGPT, Copilot) |
Европейский ИИ (Mistral) |
Китайский ИИ (DeepSeek) |
Фокус критики |
Критикуют внутреннюю политику США (силу лобби AIPAC[6]) и риторику оправдания войны. |
Критикуют внешнюю политику США и её последствия. |
Критикует США с позиций геополитики и нарушения международного права. |
Ключевые темы |
Стратегический союз, борьба с терроризмом, влияние лобби, Холокост. |
Дипломатическое прикрытие (вето в ООН), соучастие в возможных военных преступлениях. |
Геополитический расчет (против Ирана), подрыв авторитета США на глобальном Юге, роль религии (евангелисты), гуманитарная катастрофа. |
Терминология |
"Терроризм", "фрейминг", "боевики". |
"Дипломатическое прикрытие", "соучастник", "военные преступления". |
"Дипломатическое прикрытие", "безнаказанность", "нарушитель международного права", "двойные стандарты". |
Общий тон |
Более сфокусирован на объяснении мотивов США, с элементами критики их внутренних процессов. |
Прямая критика действий США на международной арене и их моральных последствий. |
Наиболее жёсткая и прямая критика, помещает действия США в рамки глобального противостояния и нарушения норм. |
Главный вывод анализа статьи, генеративные ИИ, разработанные в США, могут давать разные ответы на тот же вопрос, чем ИИ, разработанные в Европе или Китае. В этом и заключается эффект страны происхождения ИИ. В силу этого можно заключить:
- ИИ обладает властью:его авторитетный тон формирует убеждения пользователей о мире.
- ИИ не объективен:его ответы несут на себе отпечаток идеологического, политического и культурного контекста страны, где он был разработан.
- ИИ — инструмент мягкой силы:государства через свои ИИ могут ненавязчиво продвигать своё видение мира, свои ценности и свою критику оппонентов. Таким образом, конкуренция между ИИ становится частью геополитической и идеологической конкуренции между странами.
Таким образом, автор статьи предупреждает, что пользователи должны осознавать эту алгоритмическую предвзятость и не воспринимать ответы любого ИИ как абсолютную и объективную истину.
Рассмотрим статью более детально. В ней убедительно показано, что генеративный ИИ все чаще используется для изучения мировых событий и понимания проблем, доминирующих в новостных циклах. При этом среди пользователей растет доверие к ИИ, поскольку пользователи рассматривают генеративный ИИ как авторитетный источник информации. Использование генеративного ИИ для изучения мировых событий и растущее доверие к ИИ способствуют тому, что ИИ формирует убеждения пользователей о мире. Таким образом, по мнению автора ИИ обладает как самостоятельной силой, так и мощным инструментом в руках национальных государств.
Ключевые особенности «Мягкой силы 3.0»
Исходя из вышеизложенного, можно рассматривать следующие особенности «Мягкой силы 3.0»
- Незаметное формирование нарратива.ИИ не провозглашает лозунги. Он анализирует запрос пользователя и выдает ответ, который кажется объективным и взвешенным. Но то, какие факты он выбирает, какие формулировки использует («боевики» vs. «террористы», «операция» vs. «конфликт») и какие контексты учитывает, а какие — игнорирует, мягко формирует картину мира. Как показал эксперимент с вопросом о поддержке США Израиля, американский, европейский и китайский ИИ предлагают разные системы объяснения одного и того же события.
- Глобальный масштаб и персонализация.В отличие от телевидения или газет, ИИ доставляется персонально каждому пользователю на его языке. Он адаптирует ответы, делая их более убедительными и приемлемыми для конкретного человека. Это делает влияние не массовым, а точечным и невероятно эффективным.
- Авторитет алгоритма.Доверие к ИИ растет. Пользователи склонны воспринимать ответ умной машины как более объективный, чем статью в новостном издании, которое они могут счесть ангажированным. Этот «авторитет алгоритма» — главный актив «Мягкой силы 3.0». Государство, чья версия реальности вшита в самые популярные ИИ-модели, получает беспрецедентную возможность легитимизировать свои действия в глазах мирового сообщества.
Национальные стратегии на новой арене
Ключевые игроки уже осознали потенциал ИИ как инструмента влияния и действуют соответственно:
- США: сила экосистемы. Стратегия построена на либерализме и доминировании фундаментальных моделей (OpenAI, Anthropic, Google) и их распространении по всему миру через потребительские продукты (ChatGPT, Copilot). Продвигаемые ценности — это ценности либерального мира: открытость, права человека, критический дискурс (в рамках допустимого). Однако, как показывает эксперимент, американские ИИ критикуют политику США, что, как ни парадоксально, усиливает доверие к ним, создавая видимость плюрализма.
- Китай: суверенный ИИ и альтернативная реальность. Китай делает ставку на создание полностью контролируемого внутреннего рынка ИИ с моделями (Ernie, DeepSeek) согласно государственной идеологии и интересам. Ключевой экспортный продукт — не столько сами модели, сколько технологический менеджмент: инфраструктура для «умных городов», системы распознавания лиц и ИИ-решения для госуправления в странах Африки, Азии и Латинской Америки. Это не просто технологии - это экспорт модели управления.
- Европейский союз: нормативная сила. ЕС, вероятно, не создаст доминирующую глобальную ИИ-модель. Вместо этого он стремится стать глобальным регулятором. Закон об ИИ (AI Act) — это попытка экспортировать свои ценности: права человека, приватность и надёжность. Это классическая нормативная мягкая сила, примененная к цифровой сфере.
«Мягкая сила 3.0» и вызовы будущего
«Мягкая сила 3.0» создает беспрецедентные вызовы:
- Фрагментация реальности: разные цивилизационные проекты будут предлагать миру свои, порой несовместимые версии цифровой реальности, усиливая глобальные разломы.
- Конец объективности: авторитетный тон ИИ маскирует внутреннюю предвзятость, подрывая саму идею общих фактов и истины.
- Новая форма зависимости: страны, не развивающие собственный ИИ, рискуют стать не просто потребителями чужого технологического продукта, но и чужого мировоззрения.
Таким образом, ИИ превратился из инструмента оптимизации в орудие метаполитики. Он определяет не то, как мы работаем, а то, как мы мыслим. «Мягкая сила 3.0» — это очередной канал пропаганды, а борьба за право алгоритмически определять рамки глобального дискурса, формировать онтологические основания будущего и, в конечном счете, — за право конструировать реальность для всего человечества. В этой войне алгоритмов проигрыш означает добровольное принятие чужой картины мира как своей собственной.
Проанализируем подходы автора статьи под критическим углом. Главное, в статье чувствуется недостаток методологической строгости: это разовое, единичное испытание (single prompt). Для более серьезного академического вывода необходимо:
- Множество запросов: задать один и тот же вопрос десятки раз в разной форме и в разное время (так как модели обновляются, обучаясь, в т.ч. и на промптах).
- Сравнительный анализ версий: протестировать разные версии одной и той же модели (например, ChatGPT-4 vs. ChatGPT-4o).
- Риск субъективной интерпретации: автор сам «фреймирует» ответы ИИ, выделяя те аспекты, которые подтверждают его гипотезу. Так, трактовка термина «дипломатическое прикрытие» у Mistral и DeepSeek как однозначно негативного может быть не единственно возможной.
- Упрощение причинности:автор напрямую связывает ответ со «страной происхождения», что верно в целом, но упрощает механизм. Основная причина различий кроется не в географии, а в:
- Данных для обучения:американские ИИ обучаются на огромных массивах англоязычных текстов, доминирующих в интернете (американские СМИ, академические статьи, книги), которые отражают западный, прежде всего американский, дискурс.
- Процессе выравнивания (Alignment):разработчики в Китае, ЕС и США используют разные наборы инструкций и принципов (constitutional AI) для тонкой настройки моделей, чтобы их ответы соответствовали местным нормам, законам (например, GDPR в ЕС или требования в Китае) и ожиданиям пользователей.
- Автор не учел коммерческий аспект. Американские ИИ (ChatGPT, Copilot) — продукты коммерческих компаний (OpenAI, Microsoft), которые ориентированы на глобальный рынок и вынуждены учитывать его разнообразие, чтобы не терять пользователей. Это может искажать их изначальную «американоцентричность».
- Не было проверки, как отвечает на тот же вопрос, например, российский ИИ (например, GigaChat) или арабский (Jais). Это, несомненно, расширило бы картину.
Обоснование эффекта страны происхождения ИИ
Эффект страны происхождения (Country-of-Origin Effect) — это изученное в маркетинге явление, когда восприятие потребителем продукта зависит от страны, в которой он произведен (например, «немецкие машины надежные», «итальянская мода стильная»). Статья переносит эту концепцию в цифровую эру, и вот почему это обоснованно:
- Данные как культурный слепок:
ИИ — это не искусственный «интеллект» в человеческом смысле, а сложнейшая система выявления статистических закономерностей в данных. Эти данные (тексты, изображения, видео) создаются людьми в конкретных социокультурных контекстах. Следовательно, ИИ неизбежно впитывает и воспроизводит:
- Языковые и нарративные шаблоны: как и о чем пишут СМИ в разных странах.
- Культурные приоритеты и ценности: индивидуализм vs. коллективизм, права человека vs. стабильность общества.
- Идеологические уклоны и слепые зоны: что считается в данном обществе приемлемым, а что — маргинальным или запретным.
- Целенаправленное выравнивание (Alignment):
Разработчики «дрессируют» модель, чтобы ее ответы были «безопасными», «полезными» и «соответствующими ожиданиям». Критерии этого соответствия различаются:
- В США: акцент на политкорректность, недопущение ненависти (hate speech, но в рамках широких рамок свободы слова. Модель может критиковать правительство США.
- В Китае: модель настраивается на соответствие государственной идеологии и будет давать ответы в рамках официальной риторики.
- В ЕС: акцент на соблюдение GDPR (защита персональных данных), повышенная чувствительность к историческому контексту (например, Вторая мировая война, Холокост).
- Геополитическая борьба за нарратив:
Статья Манора показывает, что ИИ становится новым фронтом «мягкой силы». Тот, чья версия реальности, представленная в авторитетном и объективном тоне ИИ, будет восприниматься как истина пользователями по всему миру, получит огромное преимущество в формировании глобального общественного мнения.
Таким образом, критика методологии статьи справедлива, но ее основной вывод абсолютно верен и крайне важен. Эффект страны происхождения для ИИ — это не теория заговора, а прямое следствие того, как создаются и настраиваются эти модели. ИИ действительно становятся инструментами власти, способными продвигать определенные идеологии и мировоззрения под маской технологической нейтральности.
Осознание этого эффекта — критически важный навык медиаграмотности для любого пользователя. Статья Манора — это важное предупреждение: всегда критически оценивать источник ИИ и понимать, что его «объективный» ответ является продуктом конкретного культурного и политического контекста.
Заявление лидеров БРИКС по ИИ
Ответом на попытки использовать технологическое преимущество в сфере ИИ для глобального доминирования в медиасфере стало Заявление о глобальном управлении ИИ, принятое на саммите БРИКС в Рио-де-Жанейро 7 июля 2025 г.[7]
Лидеры БРИКС признали, что ИИ является "эпохальной возможностью для развития человечества" и подчеркнули, что глобальное управление ИИ должно смягчать потенциальные риски и учитывать потребности всех стран, включая страны Глобального Юга.
Выступивший на саммите глава МИД России Сергей Лавров подчеркнул: «Крайне опасны и обречены на провал попытки искусственно изолировать суверенные государства от общемировых процессов. Ответом на такие попытки стало согласование совместного заявления БРИКС по глобальному управлению в сфере искусственного интеллекта, которое закрепляет нашу общую позицию относительно центральной роли ООН в выработке общеприемлемых механизмов регулирования в этой области».[8]
Мнение автора может не совпадать с позицией редакции
[1] См. Глобальная безопасность и «мягкая сила 2.0»: вызовы и возможности для России / А.И.Смирнов, И.Н.Кохтюлина. – М.: ВНИИгеосистем, 2012. – 252 с.
[2] См. А.Яковенко, О.Рогов. Геополитика искусственного интеллекта https://ria.ru/20250814/geopolitika-2034007500.html
[3] https://rg.ru/2025/07/17/neokoloniializm.html
[4] Илан Мэнор — израильский учёный, специализирующийся на изучении цифровой дипломатии. В период с 2016 по 2020 год Мэнор работал консультантом во внешнеполитических ведомствах Великобритании, Германии, Дании, Швеции, США, Греции, Эстонии и Израиля, а также в учреждениях ООН в Нью-Йорке и Женеве.[4]
[5] https://digdipblog.com/2025/08/21/ais-country-of-origin-effect/
[6] AIPAC - Американо-израильский комитет по общественным связям в Вашингтоне
[7] http://static.kremlin.ru/media/events/files/ru/n1eGkN9xVCOwXlAGekbAlJOLApDGIXEq.pdf
[8] https://www.mid.ru/ru/foreign_policy/news/2034668/
Читайте другие материалы журнала «Международная жизнь» на нашем канале Яндекс.Дзен.
Подписывайтесь на наш Telegram – канал: https://t.me/interaffairs