20 апреля 2023 года ведущий научный сотрудник Отдела исследований европейской интеграции Института Европы РАН Д.Ю. Базаркина приняла участие в круглом столе «Развитие технологий искусственного интеллекта и риски для международной информационной безопасности» в Дипломатической академии МИД России.
Организатором мероприятия выступила Школа международной информационной безопасности Института актуальных международных проблем Дипломатической академии МИД России (Школа МИБ). С приветственным словом к участникам круглого стола обратилась руководитель Школы МИБ Аревик Мартиросян.
Спикеры представили обзор основных угроз негативного воздействия на общественное сознание с использованием ИИ (манипуляции в предвыборных кампаниях, политическая дезинформация посредством распространения дипфейков, установление информационной повестки дня с помощью ботов на основе ИИ, угрозы перехвата контроля над «умными» системами управления физическими объектами), анализ рисков делегирования политических решений алгоритмам, оценки готовности научного сообщества предлагать решения новых проблем информационно-психологической безопасности в контексте внедрения ИИ. В дискуссии и дальнейшем «мозговом штурме» по теме круглого стола приняли участие представители министерства обороны Российской Федерации, российских научно-исследовательских институтов и вузов, бизнес-структур и общественных организаций.
Д.Ю. Базаркина в докладе «ИИ в информационно-психологическом противоборстве: государственные и негосударственные акторы» сделала основной акцент на угрозах террористической пропаганды и вербовки с использованием технологий ИИ, а также на мерах противодействия им, в частности, оценив опыт стран ЕС. Выявлено, что социальная инженерия с применением технологий ИИ активно используется террористами в пропаганде своей идеологии и вербовке новых боевиков. Вслед за крупными террористическими организациями пропаганду посредством ботов все чаще практикуют неонацистские группы различной численности. Растет угроза использования террористическими организациями роевых беспилотных летательных аппаратов, что способно изменить сами методы террористической деятельности и концепты пропаганды. Последствиями социальной инженерии может стать захват преступниками физических объектов – технических средств, управляемых ИИ. Уже сегодня для распространения экстремистского контента используются сгенерированные с помощью ИИ виртуальные личности. Эти и другие угрозы требуют не только скоординированных усилий антитеррористических структур, но и повышения устойчивости всего общества в новых условиях.
Среди мер противодействия коммуникационным террористов Д.Ю. Базаркина упомянула ряд способов использования ИИ: применение систем распознавания изображений и обработки естественных языков для выявления и модерации террористического контента, предложения по использованию ИИ в психологической защите от манипуляций, направленных на получение конфиденциальной информации, и других. Учитывая, что самым уязвимым перед социальной инженерией элементом системы информационной и кибербезопасности остается человек, сохраняется актуальность просвещения граждан не только в технической сфере, но и в политической или информационно-психологической.
Программа круглого стола: https://vk.com/doc235203903_660276128?hash=zI4dGohIJLm77svhZZ5jL4yKr30JYFn1vIpbVHD6PTP