ГЛАВНАЯ > Дискурс

V «Медиафорум-2022: свобода журналистики в контексте прав человека, новых технологий и международной информационной безопасности». Ярославль, 1-3 ноября 2022 г. Часть 5

19:03 12.04.2023 • Валерия Булва,

Упрощение форматов, популяризация стриминговых платформ, стагнация СМИ в условиях нарастающих геополитических разногласий

Контент для молодой аудитории: куда пропала объективная информация?

Новостные платформы для продвижения контента используют новые технологии, в том числе искусственный интеллект. Какие преимущества обусловлены применением ИИ в моделировании новостной программы, и возможно ли, при этом, исключить риски дезинформации?

Элина Леонидовна Сидоренко, доктор юридических наук, профессор, директор Центра цифровой экономики и финансовых инноваций МГИМО МИД России:

С 2014 по 2016 гг. начали появляться первые новости з авторством искусственного интеллекта (ИИ). Например, в 2014 г. об этом заявили Associated Press. В 2016 г. The Washington Post указал, что Heliograf начал использовать свой ИИ Heliograf для освещения Олимпийских игр в Рио-де-Жанейро. По оценке 78 государств, в 2019 г. у 4 из 10 новостных организаций была разработана ИИ-стратегия. В 2022 г. ИИ уже представляет не роскошь, а становится нормой новостной индустрии.

Мировой агрегатор Filboard заявил, что уже несколько лет использует ИИ для управления новостной лентой от 11 000 издателей для 145 млн пользователей. Forbes также подтвердил информацию о том, что использует ИИ (робот Берти) для написания статей – отчетов о прибылях и убытках на основании анализа больших финансовых данных. The Washington Post использует Heliograf, который может генерировать целые статьи из количественных данных. Bloomberg использует Cyborg для создания и управления контентом. The Guardian, Associated Press и Рейтер тестируют ИИ не только для написания статей, но и для отслеживания финансовых документов и отчетов, а также для отслеживания и блокирования фиктивных новостей.

Сегодня отсутствует регулирование ИИ. Существуют различные позиции по этому поводу: сохранить самоорганизацию ИИ, выделить некие реперные точки, на которых необходимо будет минимизировать риски и стимулировать позитивный опыт или развивать систему регулирования.

В то же время в журналистике вырабатываются нравственные стандарты использования ИИ. Обзор, подготовленный крупнейшими западными СМИ, показал, что в основе внедрения ИИ лежат 5 тезисов:

  1. Только люди решают, что из творений ИИ подлежит публикации;
  2. ИИ должны сохранять конфиденциальность источников и персональных данных;
  3. Создание и обновление ИИ должно быть простым и быстрым, а покупка и поддержание – дешевым (недопущение монополизации);
  4. ИИ должны освобождать журналистов от рутинных задач;
  5. ИИ во многих издательствах держится на одном техническом специалисте.

 В 2012 г. Facebook (запрещен в России) опубликовал результаты тайного опроса. Было выбрано 500 тыс. человек разных социальных и языковых групп и отсеивали ту информацию, которые эти люди получали через посты. Половина из них получала позитивную информацию (праздники, интересные события), а остальные – негативную информацию. Когда стали прослеживать, что происходила с читателями через некоторое время, то выяснилось, что те, кто получал позитивную информацию выставляли «лайки», а кто негативную – начинали негативно относится ко всему, с чем связана была эта информация.

После обнародования результатов прокатилась волна недовольства среди политиков, которые обвинили социальную сеть в манипулировании общественным сознанием. Однако с результатом согласились все – через фильтрацию новостных лент пользователей возможно влиять на настроение масс.

Другой эксперимент Facebook (запрещен в России) был проведен в 2017-2021 гг. и направлен на всех пользователей. Каждый пост, который публиковался, должен был поддерживаться «лайками», а тайно еще и смайликами (каждый имел свой балл, причем наибольший балл был у смайлика «сердито»). Люди начали выкладывать негативные посты для получения смайлика «сердито» и последующего продвижения контента. По итогам опроса было определено, что стимуляция ненависти у пользователей повышает их вовлеченность и число фейковых новостей.

Рассуждения о том, как ИИ-платформы влияют на массовое сознание людей, привел к тому, что в 70 странах в 2019 г. (48 стран в 2018 г.) СМИ сознались в том, что влияют на массовое сознание людей через социальные сети. Выяснилось, что ИИ способен сочинять экстремистские материалы. Примером может послужить GPT3 – алгоритм, который буквально за минуту позволяет сочинить любую новость, причем помимо создания контента, он может поддерживать интерес к информации через ведение диалога с пользователем.

В отношении некоторых новостей были довольно четкие границы, использовались ключевые слова. При определении экстремистских материалов левых взглядов обращали внимание на такие слова, как «митингующие» и «ищущие убежища», правых взглядов – «бунтовщики» и «незаконные мигранты». Как правило, весь это экстремистский контент затрагивает острые социальные проблемы – мигранты, аборты, движение по защите афроамериканцев, контроль над оружием, финансирование военных и т.д. Интерес к такому контенту поддерживается в течении 3 дней через комментарии.

ИИ определял основных адресатов новостей и через таргет распространял необходимую информацию, усиливая экстремистскую мотивацию целевой аудитории. Это подчеркнуло, что мы находимся в стереотипном сознании, которое формируется социальными сетями. Более того, это сознание управляется через эмоциональный контент. В этой связи, в Евросоюзе призывают запретить таргетирование в политической рекламе.

ИИ влияет на вопросы дискриминации. Один из аспектов дискриминации – наложение на людей мер социального ограничения ввиду того, что они попадали в группу риска (американские запреты на УДО, освобождение из-под стражи ввиду того, что ИИ определял человека как неблагонадежного). ИИ способен различать идеологическую окраску текстов.

На текущий момент существуют перспективные идеи как использовать ИИ для борьбы с фейк-ньюс. В 2018-2021 г. в Евросоюзе реализовывался проект Fandago, который подразумевал автоматическую проверку фактов и помощь людям в проверке фактов. В 2018-2020 гг. в Евросоюзе развивался проект GoodNews, основная цель которого – выявление фейков через механизм их распространения.

Одна из проблем – принадлежность авторских прав на генерированные ИИ новости. Согласно английскому праву, ИИ не может быть объектом авторского права, им может быть только лицо, предпринявшее меры для создания произведения. В Китае полагают, что ИИ обладает охраноспособностью в случае достаточной оригинальности (кейс «Тенсент против Шанхай Инсюнь») или если она создана с помощью выкупленного компанией продукта (кейс «Фильм против Баду»).

В России следовало бы признать ответственность новостных агрегаторов за использование ИИ в новостной повестке. Сегодня деятельность новостного агрегатора регулируется ФЗ «Об информации, информационных технологиях и о защите информации», который подразумевает только информирование в уведомительном порядке о существовании такого агрегатора. Однако на них не могут быть распространены правила о СМИ.

Платформы могут нести ответственность за творчество собственных ИИ. Однако сегодня они перекладывают ответственность на пользователей. Например, в соответствии с Директивой ЕС об электронной торговле, любая платформа несет ответственность только за тот продукт, в отношении которого есть полный эффективный контроль.

Читайте другие материалы журнала «Международная жизнь» на нашем канале Яндекс.Дзен.

Подписывайтесь на наш Telegram – канал: https://t.me/interaffairs

Версия для печати