Эксперты описали сценарии применения нейросетей на выборах в Госдуму
Скорее всего, будет достигнут «адаптивный баланс», когда власть и участники кампании вырабатывают практику применения ИИ на выборах
Эксперты предложили пять возможных сценариев использования искусственного интеллекта (ИИ) в ходе кампании по выборам в Госдуму в 2026 г. О них говорится в докладе Центра политической конъюнктуры (ЦПК) «Кибер-айсберг III: регуляторный разворот», с которым ознакомились «Ведомости».
Первый сценарий – «нормативная стерильность» с жестким ограничением использования ИИ в агитации. Второй – «скрытый цифровой всплеск», когда ограничения на ИИ в агитации стимулируют перенос практик в неформальную цифровую среду и возникают параллельные контуры кампании: анонимные платформы, телеграм-каналы и т. д. Третий сценарий – «дипфейковый кризис», когда в ходе кампании происходит громкий инцидент с использованием дипфейка, что становится предметом политической борьбы и приводит к оперативному ужесточению регулирования.
Четвертый сценарий – «адаптивный баланс», когда власть и участники политического процесса вырабатывают практику применения ИИ и формируют правила: маркировка контента, прозрачные требования к финансированию агитации, легальное использование нейросетей. Риски этого сценария – сложность правоприменения, формальное соблюдение правил при сохранении манипуляций, возможности – снижение конфликтности вокруг ИИ и формирование новой нормы политической коммуникации, а последствия – ИИ становится инструментом политической кампании, а его использование постепенно институционализируется.
Именно этот сценарий можно считать наиболее вероятным в ходе нынешней кампании, считает руководитель научного совета ЦПК Алексей Чеснаков: «Регуляторы не введут слишком подробных и жестких норм регулирования ИИ, что позволит политическим акторам реализовать нестандартные и интересные решения. В этих условиях главное – наличие ресурса. Хотя многое будет зависеть от позиции Центризбиркома».
Пятый сценарий – «неконтролируемый ответ», когда жесткие ограничения провоцируют непредсказуемую реакцию: технологии используются анонимными или внешними акторами, появляются неожиданные манипуляции и новые форматы синтетического контента.
Слабое нормативное регулирование использования ИИ на выборах сейчас оставляет широкое пространство для маневра, говорится в докладе. Поправки в избирательное законодательство регламентируют только использование образов реальных и вымышленных людей в агитматериалах, но не другое использование ИИ в ходе кампаний. Например, нет описания феноменов дипфейков в агитации, не регулируется генерация текста и аудио, в том числе с использованием голоса умершего человека, нет требований к раскрытию фактов использования нейросетей штабами, кандидатами или партиями.
К старту кампании меняется специфика использования ИИ – с публичной демонстрации на анализ аудитории, генерацию сообщений, тестирование визуальных и текстовых решений и т. д. По мнению авторов доклада, если ко второму чтению поправки, касающиеся ИИ в агитации, не претерпят сильных изменений, то «у политтехнологов сохранится широкий инструментарий» – проблемой будут образы людей, генерация голоса и текста и т. д.
«Определение правил генерации образов и в целом визуального контента – это лишь первый шаг. Необходимо описать правила и нормы использования ИИ при коммуникации с избирателями, допустимо ли работать с персональными данными сторонников с применением, например, зарубежных моделей и, что чрезвычайно важно – каковы правила публичного использования социологических данных, полученных с помощью ИИ», – полагает Чеснаков.
Использование ИИ актуально для участников кампании, но не особенно значимо ни для избирателей, ни для повестки выборов, говорит президент фонда «Петербургская политика» Михаил Виноградов. «Кроме того, неочевидна и выбороцентричность при определении путей регулирования ИИ. Не обязательно, что регулирование границ допустимого в публичном пространстве будет привязано к тому, как ИИ проявит себя на этих выборах», – считает эксперт. В текущей кампании использование нейросетей ограничится аналитической и справочной функцией, говорит руководитель Фонда развития гражданского общества Константин Костин. «Генеративные возможности для создания изображений и видео будут задействованы мало, поскольку официально участникам кампании создавать и использовать это будет нельзя. Хотя в соцсетях такой контент наверняка будет появляться, но скорее всего избиркомы будут стараться пресекать такую практику», – добавляет он.

