ГЛАВНАЯ > Экспертная аналитика

Искусственный интеллект и политика

10:35 28.04.2023 • Андрей Кадомцев, политолог

Знаменитый предприниматель Илон Маск выступил с предупреждением «о большом влиянии» технологий искусственного интеллекта «на выборы президента США в 2024 году». Об этом мультимиллиардер заявил в ходе интервью телеканалу Fox News.

Выступление Маска стало реакцией на феноменальный успех нейросети ChatGPT, которую компания OpenAI представила в ноябре прошлого года. Её самая свежая версия была анонсирована в марте нынешнего. «Чат привлек внимание своими широкими возможностями — общение с учетом контекста разговора, перевод, создание кода, знание содержания книг и фильмов, медицинские советы, поиск картинок и прочее. В то же время, чату далеко не всегда удается давать ответы, соответствующие действительности».

В основе разработки лежит т.н. Базовая модель (Foundation model) – «большая модель искусственного интеллекта, обученная на огромном количестве неразмеченных данных в масштабе, в результате чего получается модель, которую можно адаптировать к широкому кругу последующих задач». ChatGPT и его конкуренты используют разновидность Базовых моделей, известную как «большая языковая модель» (Large Language Model), которая, используя колоссальные объемы заложенной в нее текстовой информации, решает задачу угадывания следующего слова в тексте в зависимости от его предыдущего содержания. Бурное развитие именно этого направления в разработке ИИ стало возможно к началу 2010-х годов, когда на новый уровень вышла как вычислительная мощь компьютеров, объединенных в центры обработки данных, так и пропускная способность глобальной сети интернет.

Аббревиатура GPT расшифровывается как Generative Pre-trained Transformer, или предварительно обученный Трансформер для генерации текста. «Трансформером» исследователи из Google назвали разработанную ими в 2017 году прорывную архитектуру нейросетей. Изобретение «Трансформера» позволило вывести на качественно новый уровень разработки во всех областях ИИ - «от перевода текстов до обработки изображений, звука или видео».

Базовая модель программируется по принципу «нейронной сети», имитируя способ взаимодействия между собой нейронов в мозгу человека. В качестве параметров выступает «вес» тех или иных связей между элементами, «виртуальными нейронами», компьютерной сети. Значимость каждого параметра вычисляется методом «проб и ошибок», таким образом сеть «обучается» правильным образом реагировать на вводимые данные. Массивы исходных данных колоссальны: число параметров у GPT3 составляло порядка 175 миллиардов. Характеристики вышедшего в марте GPT4 держатся в секрете; по оценкам внешних наблюдателей – число параметров в ней еще больше, хотя и ненамного.

Принципиальное отличие Трансформера «заключается в его удобстве и гибкости: он состоит из простых модулей-блоков, которые очень легко масштабировать». Нейросети, основанные на новой технологии, лишены узких мест своих предшественников, которым требовалось слишком много ресурсов для единовременной загрузки больших массивов данных. Кроме того, прежде данные необходимо было «размечать», т.е. заранее маркировать их принадлежность к определенной категории - этим занимались сотни специально обученных специалистов. Современные «базовые модели» не только не требуют предварительной «разметки» данных, но могут «усваивать» их сразу через множество каналов ввода. Не последовательно, по принципу «один за другим», а параллельно, одновременно. Получив данные, компьютерная сеть начинает «тренировку», то самое контекстное «угадывание следующего слова». Результатом миллиардов итераций «угадывания» является качественно новый уровень статистического анализа. Де-факто, можно говорить о новой форме созидающего интеллекта, теоретически способной как угодно манипулировать информацией.

Размер и многофакторность нынешних моделей позволяет им поражать воображение публики способностью «понять шутку или сопоставить ситуацию и крылатое выражение», компьютер способен закончить ваши предложения, используя лучший оборот речи. LLM могут, по сути, обучаться на всем объеме информации, доступной в Интернете - что объясняет их возможности, хорошие и плохие. Эти модели предвещают изменение отношений людей с компьютерами, знаниями и, вероятно, даже с самими собой. Многих пугает тот факт, что продвинутый ИИ технически способен причинять вред огромных масштабов, создавая, к примеру, яды или вирусы, или вовлекая людей в террористические сети. При всем том, не следует забывать, что результаты, выдаваемые LLM, всегда более или менее достоверны, но часто содержат фактические ошибки или откровенные измышления.

По мнению Маска, быстрое развитие подобных ИИ технологий, «без надлежащего надзора», угрожает стать «опасностью для общества». Одна из причин состоит в том, что нейросети уже обладают возможностью писать тексты «лучше большинства людей» и гораздо быстрее. Недавно Маск объявил о планах создания «честной» версии ИИ. TruthGPT, как его предполагается назвать, бросит вызов ChatGPT, а его преимуществом должно стать отсутствие цензуры. В конце марта Маск присоединился к более чем тысяче экспертов, которые подписали открытое письмо, инициатором которого выступила НКО the Future of Life Institute. Авторы призвали по меньшей мере на полгода «приостановить обучение нейросетей», чтобы «в течение этой паузы совместно разработать и внедрить общие протоколы безопасности».

Впрочем, злые языки утверждают, что подписав петицию об ограничениях ИИ, Маск преследует собственные коммерческие интересы. Потеряв в свое время долю в создавшей ChatGPT фирме Open AI, один из богатейших бизнесменов мира спешно создает собственную компанию для разработки продвинутого ИИ. С другой стороны, использование «больших данных» уже оказывало влияние на исход политических кампаний в ряде стран Запада в последние годы.

Спустя месяц после победы Трампа на выборах, в шведском издании Das Magazine вышла статья, в которой рассказывалось о работе основанной американским миллионером Робертом Мерсером британской компании Cambridge Analytica. Незадолго до начала политической кампании за выход Великобритании из ЕС, Cambridge Analytica скупила массивы данных «о десятках миллионах британцев и американцев». База включала в себя «огромное количество информации, начиная от лайков в соцсетях и заканчивая адресами проживания отдельных граждан». После обработки данных, были запущены кампании таргетированной политической агитации – реципиенты получали сообщения, максимально совпадающие с их общественно-политическими пристрастиями.

Критики утверждают, что агитация в пользу Брекзита стала первой «пробой сил». Лидеры сторонников Брекзита, Найджел Фарадж и Аррон Бэнкс, в предыдущие годы регулярно контактировали с рядом топ-менеджеров Cambridge Analytica. А Фарадж дружил с ее основателем. Весной 2018 года Управление уполномоченного по делам информации Великобритании (ICO) «приступило к расследованию деятельности компании». Примерно тогда же в ряде ведущих американских СМИ, симпатизирующих демократам, появились материалы о работе Cambridge Analytica. Согласно этим публикациям, фирма «собрала личные данные более 50 млн…» американских пользователей крупнейших соцсетей, а затем «разработала алгоритм анализа политических предпочтений избирателей» и превратила его в «инструмент массового убеждения», который сыграл важнейшую роль в успехе Трампа.

Маск известен, скорее, как симпатизант Трампа. И сегодня у известного бизнесмена, вероятно, есть основания подозревать демократов в готовности использовать против Трампа методы, в применении которых они же обвиняли его несколько лет назад. При всем том, вопросов относительно политических последствий повсеместного внедрения продвинутых моделей ИИ, действительно, немало. Один из них – контроль над технологией Базовых моделей. Их разработка стоит настолько дорого, что даже ведущие университеты Америки не могут позволить себе приобретение необходимых вычислительных мощностей.

Возникает угроза концентрации технологий и данных в руках небольшого числа компаний и правительств богатейших стран мира. В таком случае, они получили бы в свое распоряжение мощнейшие инструменты формирования убеждений и навязывания предубеждений, идеологической борьбы. Вопрос доступности технологий грозит усугубить проблемы цифрового неравенства. На данный момент доступ к самым большим моделям ИИ ограничен, под предлогом «предотвращения их использования в неблаговидных целях», таких как создание подложных новостей. Однако чем мощнее эти модели, тем больше ограничение доступа к ним создает новую элиту. Некоторые опасаются, что бездумное распространение технологии приведет к дальнейшей концентрации экономической и политической власти, а также к перестройке экономики, требующей фундаментальной социальной перетряски. В ближайшие десятилетия могут произойти изменения, которые существенно уменьшат или вовсе сведут на нет потребность общества в целых сферах человеческой деятельности.

Неизбежны и новые угрозы для национальной безопасности. К примеру, сервисы автоматического программирования, основанные на технологиях GPT, могут быть использованы для создания очень опасных компьютерных вирусов и их запуска в глобальные сети. Сумеют ли власти и специальные службы избежать соблазна использования новых возможностей? Модели, могут разрабатывать стратегии для военных, а от их способности генерировать реалистичные видеопотоки лишь один шаг до производства неограниченных объемов крайне убедительной дезинформации и пропаганды. Все ведущие державы разрабатывают свои варианты Больших моделей ИИ. Можно ли ограничить и регулировать гонку ИИ-вооружений?

Возникает и проблема регулирования столь обоюдоострой технологии, как на национальном, так и на международном уровне. По данным The Economist, на сегодняшний день правительства придерживаются трех различных подходов. Наименее строгий - без новых правил или регулирующих органов, применяя к ИИ лишь существующие правила к системам ИИ. Более жесткий подход предлагает Евросоюз. Предложенный им закон классифицирует различные виды использования ИИ по степени риска и требует все более строгого контроля и раскрытия информации по мере повышения степени риска. Некоторые виды использования ИИ запрещены полностью, например, реклама, воздействующая на подсознание, а также дистанционная биометрия.

Есть и сторонники еще более строгих ограничений. По мнению которых для надзора и регулирования ИИ требуются специальные органы, строгое тестирование технологий и их предварительное одобрение перед публичным выпуском. Если ИИ станет такой же важной технологией, как автомобили, самолеты и лекарства - а есть все основания полагать, что это так, то ему также потребуются особые правила. Включающие, в частности, требование раскрытия информации о том, как системы обучаются, как они работают и как контролируются, а также обязательные процедуры проведения инспекций.

Вместе с тем, представляется, что призыв заключить межправительственные договоры в области ИИ, аналогичные тем, которые регулируют ядерное оружие, звучит противоречиво. ИИ это технология, потенциально способная привести к качественным прорывам в области социально-экономического развития. Договоры же о контроле над ядерным оружием изначально призваны жестко ограничить его распространение.

Технология «больших моделей», вне всяких сомнений, представляет собой качественный скачок в области разработки Искусственного интеллекта. Они сулят революционные изменения, однако следует помнить, каким драматизмом и общественно-политическим накалом были отмечены предыдущие технические прорывы, приводившие к фундаментальным переменам в экономике и жизни социума. При этом вопросы о направлениях дальнейшей эволюции ИИ остаются открытыми.

Вместе с тем, даже наиболее правдоподобные сценарии зловредизации ИИ предполагают переход самой технологии на качественно новый уровень, до которого еще далеко. Кроме того, для превращения в «экзистенциальную угрозу для человечества» ИИ неким образом должен будет заполучить в свое распоряжение колоссальные источники энергии и вычислительной мощности, а также денег. Однако физический контроль за доступом к этим ресурсам людям вполне под силу сохранить за собой.

 

Мнение автора может не совпадать с позицией редакции

Читайте другие материалы журнала «Международная жизнь» на нашем канале Яндекс.Дзен.

Подписывайтесь на наш Telegram – канал: https://t.me/interaffairs

Версия для печати