В Совете Федерации 26 октября прошло заседание Комиссии СФ по информационной политике и взаимодействию со СМИ на тему «Искусственный интеллект и СМИ: возможности, опасности и перспективы».
Заседание открыл председатель Комиссии, член Комитета СФ по конституционному законодательству и государственному строительству Алексей Пушков. Он отметил, что на сегодняшний день остается неясным, сможет ли искусственный интеллект установить собственный контроль над человеком. Пушков подчеркнул, что в современном контексте важно понять, как будут существовать СМИ в условиях развития искусственного интеллекта. Сенатор также указал, что на фоне развития нейросетей большой угрозой является достигаемая с помощью технологий деперсонализации информации. «Если технические средства начнут подавать нам информацию, то напрасно считать, что они будут непременно объективными», - заявил он. Пушков указал, что активное искажение фактов в СМИ свидетельствует о «гибели информации». «Кто нам сказал, что, если искусственный будет допущен до формирования новостей, мнений и оценок тех или иных событий, то он будет действовать на основе той системы взглядов, которую мы считаем верной?», - добавил Пушков. Он заметил, что деятельность искусственного интеллекта представляет все большую опасность из-за предлагаемого на Западе унифицированного взгляда на мир.
Пушков передал слово первому заместителю председателя Комитета СФ по конституционному законодательству и государственному строительству и члену комиссии по информационной политике Ирине Рукавишниковой. «Технологии, использующие искусственный интеллект, безусловно, применяются. Это наша реальность, это наше будущее, и с этим, наверное, сложно спорить. Здесь есть очевидные плюсы, может быть, их даже больше, но есть минусы, на которые нужно обратить внимание. Сфера регуляторики должна быть сфокусирована именно на этих минусах», - сказала она. Из угроз расзвития искусственного интеллекта Рукавишникова выделила распространение искаженной информации для создания фейковых информационных поводов и новостей. Она подчеркнула, что сейчас в Министерстве цифрового развития, связи и массовых коммуникаций обсуждается концепция нового административно-правового акта, который пока называется «информационный кодекс». В документе, как сообщает Рукавишникова, отдельная глава будет посвящена технологиям искусственного интеллекта. Она подчеркнула, что риск-ориентированный подход поможет выделить сферы, на которые искусственный интеллект может повлиять в наибольшей степени, и проработать алгоритмы его внедрения. «Для соблюдения баланса обсуждения мы должны определить, где искусственный интеллект будет нам полезен, в том числе и в сфере СМИ. Это анализ информации, это обобщение информации, избавление журналистов от рутинного поиска контента. Но очень важно, чтобы на выходе у нас был верифицированный, соответствующий действительности, неискаженный контент», - указала Рукавишникова.
Депутат Государственной думы Федерального Собрания РФ Анатолий Вассерман подчеркнул, что «интернет – это такая же сфера человеческой деятельности, как и все прочие, и поэтому на него должны распространяться общие правила регулирования». Он также сказал, что искусственный интеллект безопасен по части бунта, потому что не может обучаться на собственном опыте путем построения планов и оценки результатов. «…Искусственный интеллект будет находиться не в естественном теле, а в искусственном. Это в свою очередь означает, что он будет нуждаться в иных ресурсах, нежели мы, будет ставить иные цели, нежели мы, и, соответственно, не будет для нас конкурентом. Но я совершенно не сомневаюсь, что искусственный интеллект не хуже естественного поймет полезность взгляда на мир с разных точек зрения и не меньше естественного интеллекта будет понимать пользу взаимодействия», - подчеркнул Вассерман. Нынешнюю форму машинного мышления он назвал лишь инструментом искусственного интеллекта, который подвержен проблеме выбора цели его использования. Депутат добавил, что искусственный интеллект уже лучше естественного справляется с созданием фейковых новостей и задачами рерайтинга, и приближается к уровню человеческого навыка в генерации кликбейтов. «С моей точки зрения, главное, что может касаться искусственного интеллекта применительно к СМИ, это то, что это будет более эффективное, чем живые люди, средство отображения позиций владельцев и в какой-то мере редакторов, но в любом случае, это именно средство и регулироваться оно должно как средство, а не как некая самостоятельная сущность», - заключил Вассерман.
Член совета при президенте Российской Федерации по развитию гражданского общества и правам человека и президент компании «Крибрум» Игорь Ашманов заявил, что угрозу представляет не сам искусственные интеллект, а «злые и очень умные» люди, которые его используют. «С прорывом в области глубоких нейронных сетей и генеративных больших лингвистических моделей стала дешевой фальсификация всего… Сейчас можно фальсифицировать все, что угодно», - отметил Ашманов. Он подчеркнул, что искусственный интеллект нынешнего типа все усредняет, и его активное использование в СМИ приучит людей к потреблению более «пресного контента». Ашманов призвал маркировать применение искусственного интеллекта, запретить его использование в принятии решений о судьбах людей, раскрыть и нормировать алгоритмы его действия. Он также выразил опасения по поводу субъектности технологий. «Люди, которые говорят, что нужно дать субъектность искусственному интеллекту, по сути хотят снять с себя ответственность», - подчеркнул он.
Главный редактор издания «Московский комсомолец» и член совета при президенте Российской Федерации по развитию гражданского общества и правам человека Павел Гусев заявил, что «у многих СМИ искусственный интеллект уже присутствует в редакционной работе», в которой он очень «несовершенен». Он указал, что искусственный интеллект может применяться только при условии проверки результата. «Конечно же, искусственный интеллект очень сладок для владельцев СМИ, потому что можно уволить определенное количество журналистов и создать для своего бизнеса положительные моменты, - признал редактор. - Но какие дальше будут минусы – никто не думает». Гусев добавил, что сегодня искусственный интеллект опирается на западные поисковые системы, результаты которых являются провокационной деятельностью, которую нужно ограничивать или четко контролировать. «Мы наступаем в болотину, выбраться из которой будет очень сложно», - добавил Гусев. Редактор отметил, что западные поисковые системы напрямую работают на то, чтобы давить на прессу, на журналистов, и искусственный интеллект будет этому способствовать. «Конечно, запретить мы ничего не сможем, но то, что ИИ таит в себе очень большие проблемы в будущем, я абсолютно уверен», - заключил он.
Читайте другие материалы журнала «Международная жизнь» на нашем канале Яндекс.Дзен.
Подписывайтесь на наш Telegram – канал: https://t.me/interaffairs