Институт Европы РАН
федеральное государственное бюджетное учреждение науки
институт европы российской академии наук

«Трансатлантические беседы» об искусственном интеллекте

  • 29 мая 2024

29 мая 2024 года в Институте Европы РАН состоялся очередной семинар из цикла «Трансатлантические беседы», организованный Отделом исследований европейской интеграции и Отделом страновых исследований ИЕ РАН.

Мероприятие, прошедшее в смешанном формате, было посвящено проблемам развития и регулирования технологий искусственного интеллекта (ИИ).

С основными сообщениями выступили: д.и.н., проф., в.н.с. Центра цифровых исследований и г.н.с. Центра глобальных исследований и международных отношений Института актуальных международных проблем Дипломатической академии МИД России Е.Н. Пашенцев и д.полит.н., в.н.с. Отдела исследований европейской интеграции ИЕ РАН Д.Ю. Базаркина. Дискутантом выступил к.полит.н., в.н.с. Отдела исследований европейской интеграции П.А. Шариков.

Модерировали семинар к.э.н., зам. директора по научной работе, руководитель Отдела страновых исследований и Центра германских исследований ИЕ РАН В.Б. Белов и д.полит.н., зав. Отделом европейской интеграции ИЕ РАН О.Ю. Потемкина.

В докладе «Перспективы развития искусственного интеллекта: новые возможности и риски для международной безопасности» Е.Н. Пашенцев затронул проблемы перехода от узкого ИИ (выполняющего одну задачу и «забывающего» результаты обучения при переходе к следующей) к технологиям общего ИИ, способного выполнять широкий спектр задач так же или более успешно, чем человек. Он отметил, что в ближайшие годы возможно усиление негативного отношения к ИИ, вплоть до формирования устойчивых панических состояний, фобий и активного неприятия технологий, что может быть подкреплено как ошибками в их внедрении, так и действиями преступных акторов. Невозможно исключить появления ультрарадикальных движений, которые будут выступать как за внедрение технологий ИИ, так и против, исходя из своих интересов и целей. С другой стороны, любые социально значимые и масштабные негативные последствия развития и внедрения технологий ИИ способны спровоцировать быстрое распространение «неолуддитов», опрометчивыми действиями которых также могут воспользоваться агрессивные политические акторы. Особенно значимой угрозой могут стать решения о внедрении более совершенных и дешевых технологий ИИ (скорое появление которых практически неизбежно) не как массового помощника человека, а как инструмента массовой замены рабочей силы без создания альтернативных рабочих мест и реализации соответствующих программ переподготовки.

Е.Н. Пашенцев заключил, что бурное развитие и внедрение технологий ИИ в последние годы подтверждает тот факт, что человечество вступает в очередную промышленную революцию, и технологические закономерности меняются. Но сама природа технологической революции, основанной на ИИ, её огромные возможности и, в то же время, экзистенциальные риски, с которыми сталкивается человечество, впервые потребуют от человека пройти процесс инновационных физических и когнитивных изменений. Обретение новых способностей потребует качественно нового уровня социальной организации и ответственности, чтобы не потерять контроль над технологиями и тем самым избежать наступления технологической сингулярности (потери человеческого контроля над технологиями). Для этого необходимо идти в ногу с развитием новых технологий, не переставая быть человеком.

Д.Ю. Базаркина выступила с докладом «Регулирование ИИ в Европейском союзе: к принятию Закона об ИИ 21 мая 2024 г.». Были рассмотрены основные этапы регулирования искусственного интеллекта от дорожной карты «Робототехника 2020» до недавно принятого Закона об искусственном интеллекте. По мнению докладчика, на фоне доминирования крупных американских и китайских концернов, в ЕС назрела необходимость политических решений для сокращения отставания и подготовки законодательной базы для развития ИИ. Было решено внедрить подход, ориентированный на человека, способный стать своеобразным «брендом» ЕС на международной арене и создающий предпосылки для развития человеческого капитала. Вместе с тем, в то время как ЕС больше всего обеспокоен галлюцинациями искусственного интеллекта (модели допускают ошибки и выдумывают факты), вирусным распространением дипфейков и автоматическими манипуляциями с искусственным интеллектом, которые могут ввести избирателей в заблуждение на выборах, у технологического сообщества и более широких кругов общественности есть свои претензии к законодательству. Так, Закон об ИИ не способен устранить угрозу №1, которую в настоящее время представляет ИИ: его роль в увеличении и закреплении чрезвычайной власти, нескольких доминирующих технологических компаний в личной жизни граждан. Активной критике подвергается данное в Законе об ИИ определение ИИ как чересчур широкое и размытое. Однако законодательство ЕС в данной сфере уже становится своего рода международным стандартом и активно влияет на законодательный процесс в странах вне ЕС.

В ходе дискуссии, в которой приняли участие сотрудники ИЕ РАН, обсуждался широкий круг практических вопросов применения искусственного интеллекта, в особенности связанных с проблематикой безопасности. П.А. Шариков, открывая обсуждение как дискутант, упомянул о том, что международное регулирование использования и разработки искусственного интеллекта становится предметом региональных дискуссий, в частности, в Латинской Америке, Европе и Трансатлантическом пространстве. Отмечалось, что международное сообщество обсуждает проблематику использования искусственного интеллекта в ООН в формате Группы правительственных экспертов. Вместе с тем, в отношениях США и Европы возникают определённые противоречия относительно подходов к регулированию ИИ. Так, США в большей степени ориентированы на поддержку крупнейших технологических монополий, а регулирование в основном фокусируется на использовании ИИ. В Европе же больше внимания уделяется регулированию разработок, что, в частности, отражено в принятом недавно Законе ЕС об искусственном интеллекте. Наконец, логично поднять вопрос об использовании советско-американского опыта контроля над вооружениями в отношении особенно опасных разработок в сфере ИИ. Насколько совместимы принципы контроля над вооружениями и экспортного контроля с современными технологиями искусственного интеллекта?

Программа