ГЛАВНАЯ > Экспертная аналитика

«Победитель получает все»? (к проблеме регулирования Искусственного интеллекта)

11:17 30.11.2023 • Андрей Кадомцев, политолог

Скандал с увольнением руководителя наиболее известного разработчика систем Искусственного интеллекта (ИИ), Open AI, актуализирует споры о политических проблемах управления и регулирования новой технологией.

По данным агентства Reuters, реальной причиной внезапного увольнения гендиректора Open AI Сэма Альтмана Советом директоров могли стать острые разногласия относительно разработки ИИ следующего поколения. Источники агентства сообщили о письме ряда сотрудников компании, в котором они предупредили о «серьезной угрозе человечеству», которую, по их оценкам, представляет новая модель ИИ, известная как Q* («Ку-стар»). Эта модель, как сообщается, научилась решать математические задачи, которые не были знакомы ей прежде, продемонстрировав, по их мнению, «способность к генерации нового знания».

Если дело обстоит именно так, то модель Q* является важным шагом на пути создания универсального искусственного интеллекта, AGI. Точное определение такого типа ИИ до сих пор остается предметом дискуссий среди специалистов. Существенно различаются и оценки возможных сроков его появления - «от нескольких лет до нескольких десятилетий». В общем случае предполагается, что такой ИИ будет обладать способностью к «самообучению и саморазвитию» на основе данных, которые он получает самостоятельно. Наибольшие опасения вызывает неопределенность тех угроз, которые способен породить подобный тип «машинного разума». Сумеет ли человек сохранить контроль над ИИ, если тот начнет развиваться по экспоненте? И не «захочет» ли новый тип ИИ «действовать самостоятельно»?

Разработчики и эксперты оживленно спорят о критериях оценки уровня текущих возможностей и опасности ИИ. Одни указывают, что еще несколько лет назад ИИ вышел «на недостижимый для людей» уровень как в интеллектуальных состязательных играх, вроде шахмат или Го, так и в играх, где игроки заведомо не располагают всей полнотой информации, как, например, в покере. Наконец, к весне 2021 года ИИ покорились самые сложные игры – конкурентно-кооперативные, для победы в которых нужно проявить умение «конкурировать и сотрудничать», а также хитрить и обманывать, в которых математически невозможно победить путем перебора вариантов.

Другие, подобно исследователям из DeepMind - ИИ-подразделения корпорации Google, предлагают не паниковать раньше времени. Специалисты DeepMind разделяют степень развития ИИ на шесть уровней, где за «нулевой» принято отсутствие ИИ у алгоритма, а высший, пятый по счету, обозначен как «Сверхчеловеческий» («Superhuman»). В Google полагают, что нынешние нейросети достигли «первого» уровня, на котором способны «выполнять задачи на том же уровне или чуть лучше, чем человек, не являющийся специалистом в какой-либо области». Таковы «способности» созданного OpenAI чат-бота ChatGPT, а также его конкурента – чат-бота Bard, созданного и продвигаемого Google. Для выхода на следующий уровень необходимо, чтобы алгоритм показал способность «решать задачи лучше, чем 50% специалистов в конкретной профессиональной области». 

Тем не менее, по мере того как чат-боты, поисковые системы и генераторы изображений, работающие на базе искусственного интеллекта, быстро распространяются, всё чаще звучат предупреждения «думеров» (doomers), сторонников максимально жесткого регулирования ИИ. Они предрекают, что без глобального регулирования и сотрудничества для обуздания технологии, ИИ способен разрушить мировой рынок труда, исказить реальность в Интернете или, в худшем случае, вовсе «превзойти человеческий интеллект».[i]

Еще в 2019 году российский эксперт Сергей Карелов указывал на три основных типа рисков, которые создают технологии ИИ. «Риски аварий (ошибок в работе или выхода из строя) и риски нецелевого использования (непредусмотренного действия, произошедшего по недоработке, глупости или злонамеренности разработчиков, операторов, пользователей или злоумышленников). Третий тип – потенциально самый опасный и одновременно наиболее трудный для регулирования – структурный».

ИИ «структурно меняет большинство уже существующих технологий и позволяет создавать новые и доселе невообразимые». Структурные риски ИИ возникнут во всех случаях, когда внедрение этой технологии «…будет оказывать давление на лиц, принимающих решения — даже вполне благонамеренных и компетентных, — при принятии ими дорогостоящих и/или рискованных решений». Главная причина – не в самой технологии, но в «физическом и психологическом «переформатировании мира»», которая станет неизбежным следствием ее внедрения. Одним из примеров такого структурного риска, который может стать реальностью «самого ближайшего будущего», является угроза пересмотра доктрины гарантированного взаимного уничтожения и ее замена на доктрину «победитель получает все».[ii]

С точки зрения внутренней политики и международных отношений, широкое распространение искусственного интеллекта и его использование в социальных сетях в ближайшие годы повысит риск распространения кампаний по дезинформации с помощью текстов, изображений, аудио- и видеоматериалов. Злоумышленники могут попытаться реализовывать широкомасштабные программы, направленные на подрыв доверия граждан по отношению к правительствам.

Геополитически ИИ не столько изменит соперничество между державами, сколько изменит сами эти государства, поскольку машинное обучение бросает вызов любой политической системе. Главным вызовом для «демократий» станет дальнейшее усиление социально-политической поляризации. Произойдет скачкообразный рост дезинформации, генерация убедительных «фейков» любого типа в больших масштабах станет рутиной. «Автократии» машинное обучение может сбить с толку, создавая ложную видимость консенсуса и скрывая глубинные противоречия в обществе до момента, когда их уже невозможно будет купировать. В конечном итоге соперничающие державы могут оказаться в опасной ситуации, когда речь пойдет не о победе в битве за технологическое господство, а о предотвращении фатального конфликта, спровоцированного спиралью взаимных заблуждений, подпитываемых ИИ.[iii]

Исторический опыт показывает, что создание универсальной нормативной базы для регулирования «прорывных», но потенциально опасных технологий, всегда оказывается непростой задачей. По мере развития технологий она становится еще более сложной. Переговоры о правилах в отношении всех массовых технологий последних десятилетий провоцировали столкновение интересов и разногласия по поводу оптимального подхода. ИИ с его революционным потенциалом трансформации обществ и экономики - не обязательно в лучшую сторону - представляет собой беспрецедентную проблему.

По мнению The Economist, международное регулирование ИИ могло бы пойти по одному из трех модельных путей. Сосредоточиться на выработке, продвижении и внедрении универсальных стандартов, подобно ИКАО. Можно попытаться вывести на новый уровень международную научную кооперацию в сфере ИИ, по модели ЦЕРН. Либо взять за основу модель МАГАТЭ – основная функция которой - надзор и контроль, призванные не допустить использования атомной энергии в военных целях. В случаях, когда необходимо предотвратить социально негативные последствия потенциальной предвзятости ИИ, как в медицинской сфере, или при использовании ChatGPT, регулирование можно было бы отдать на откуп национальным правительствам.

Что касается AGI, то даже в нынешнем виде эта технология, как представляется, требует установления глобальных правил и формирования международного органа, следящего за их выполнением. Летом нынешнего года генсек ООН Антониу Гутерриш поддержал «модель МАГАТЭ», предложив создать организацию, отвечающую за надзор и регулирование в сфере ИИ. Такая международная организация занялось бы выработкой «политики и руководящих принципов, способствующих безопасному использованию искусственного интеллекта, а также контролировало бы исполнение рекомендаций». Гутерриш признает, что путь к созданию такой организации будет трудным, поскольку «потребует сотрудничества правительственных учреждений и частных компаний». Последним придется согласиться «на аудит своего программного обеспечения и контроль возможностей».[iv] По мнению руководителей OpenAI, аналог МАГАТЭ в сфере ИИ должен отвечать за инспектирование систем, задействующих значительные вычислительные ресурсы, возможности которых превышают определенный «критический» порог».

Выступая 24 ноября на пленарном заседании конференции «Путешествие в мир искусственного интеллекта», Владимир Путин также отметил, «что человечество могло бы договориться об общих принципах … регулирования [ИИ] наподобие правил нераспространения ядерного оружия». «Человечество же выработало определенные правила, связанные с использованием ядерных технологий, в том числе в военной области, — нераспространение… Значит, и в сфере искусственного интеллекта мы вполне можем выйти на приемлемые для всех, нужные для всех общие решения». Президент России также подчеркнул необходимость обеспечить многополярность в технологическом мире будущего, который «…нужно строить вместе на основе доверия и взаимовыгодного сотрудничества». Именно так, отметил Путин, намерена поступать Российская Федерация.[v]

Ведущие страны и крупнейшие корпорации уже активно тестируют и внедряют генеративный искусственный интеллект (ИИ) в существующие платформы и процессы. Ожидается, что в ближайшие 5-6 лет ИИ выйдет на уровень «ИИ-актор», который позволит ему «вести реальную деятельность в реальном мире». В этом случае человечество столкнется с уровнем риска, с которым никогда прежде не имело дела. А государствам придется сделать выбор в пользу той или иной модели сосуществования с ИИ.

Оптимисты считают, что ИИ будет дополнять, а не заменять, человеческие способности, позволяя, в частности, существенно повысить производительность хозяйственной деятельности. Пессимисты предлагают максимально «зарегулировать» разработки в области наиболее совершенного ИИ, а также внедрение прикладных продуктов на его основе в управление критически важными и опасными процессами. По меньшей мере, до тех пор, пока не будут выработаны признанные международным сообществом инструменты и институты, позволяющие обеспечить оптимальный баланс между развитием технологий, оценкой угроз ИИ и обеспечением безопасности человечества. Политикам, исследователям и экспертам предстоит найти ответ на вопрос, возможно ли примирить эти два крайних подхода, и найти «серединный путь»?

 

Мнение автора может не совпадать с позицией редакции

 

[i] https://foreignpolicy.com/2023/05/05/eu-ai-act-us-china-regulation-artificial-intelligence-chatgpt/

[ii] https://russiancouncil.ru/analytics-and-comments/columns/ai/glavnyy-risk-ii-pereformatirovanie-mira/

[iii] https://www.foreignaffairs.com/world/spirals-delusion-artificial-intelligence-decision-making

[iv] https://interaffairs.ru/news/show/40904

[v] https://www.vedomosti.ru/politics/articles/2023/11/24/1007581-putin-o-znachimosti-ii

Читайте другие материалы журнала «Международная жизнь» на нашем канале Яндекс.Дзен.

Подписывайтесь на наш Telegram – канал: https://t.me/interaffairs

Версия для печати