Почему в Госдуме сочли избыточной маркировку ИИ-контента

Ранее депутаты предлагали отмечать фото, видео и тексты, созданные человеком
Пресс-служба Госдумы
Пресс-служба Госдумы

Комитет Госдумы по информационной политике рекомендовал палате отклонить законопроект, обязывающий социальные сети, видеохостинги и интернет-сайты маркировать видео, сгенерированные с помощью искусственного интеллекта (ИИ). Такое решение приняли 15 апреля.

Представитель комитета пояснил «Ведомостям», что «тема маркировки созданного с использованием ИИ-контента уже нашла отражение в законопроекте правительства», поэтому «переписывать или перевносить его является прерогативой авторов». Инициатива Белого дома еще не внесена. Но законопроект тоже предлагает подход по маркировке дипфейков, напомнил первый зампредседателя IT-комитета Антон Горелкин («Единая Россия»).

Необходимость маркировки контента обсуждалась еще в 2024 г. Тогда член IТ-комитета Госдумы Антон Немкин (фракция «Единая Россия») заявил, что палата ведет разработку закона о маркировке контента. В 2025 г. об этом напомнил председатель Госдумы Вячеслав Володин в своем Telegram-канале. По его словам, ИИ используется в «недопустимых» для этого сферах, из-за чего встает вопрос о его маркировке.

Законопроект, который рекомендован к отклонению, предлагает обязать владельцев интернет-ресурсов маркировать сгенерированный ИИ-контент текстом или с помощью машиночитаемой метки в метаданных. Он был внесен в Госдуму 14 ноября 2025 г. депутатами Дмитрием Гусевым и Михаилом Делягиным (фракция «Справедливая Россия») и Алексеем Журавлевым (фракция ЛДПР).

В отзыве IT-комитета на законопроект говорится, что применение такого подхода могло бы включать маркировку и прочего контента, созданного с помощью нейросетей, – изображения, звука, текста и т. д. Но депутаты придумали лишь частичное регулирование. Кроме того, предложение обязать все интернет-ресурсы выявлять сгенерированный контент – это избыточная и нереализуемая норма, сочли члены комитета.

«Авторы не поясняют, на каком этапе создания сгенерированного контента осуществляется маркировка, кто несет ответственность за ее корректность и сохранность при дальнейшем распространении, каковы технические требования к маркировке и т. д.», – отметил Горелкин. Он добавил, что считает идею маркировки ИИ-контента не очень удачной. «Учитывая, с какой скоростью он появляется. Боюсь, что в момент принятия подобной нормы отмаркировать придется уже 90% всего интернета», – пояснил он, добавив, что и сами мошенники не будут маркировать созданные ими дипфейки.

О том, что в России может появиться инструмент распознавания ИИ-контента и его маркировки, «Ведомости» писали в августе 2025 г. Тогда источники «Ведомостей» рассказали о том, что «Яндекс» совместно с Институтом системного программирования им. В. П. Иванникова Российской академии наук (ИСП РАН) разрабатывает систему маркировки для фото-, видео- и аудиоконтента, сгенерированного ИИ (в частности, нейросетью «Яндекса» для генерации картинок «Шедеврум»).

В начале декабря 2025 г. председатель комитета по информационной политике Госдумы Сергей Боярский («Единая Россия») заявил, что нижняя палата готова рассмотреть возможность введения маркировки контента, созданного человеком. «Скорее, нам придется маркировать контент, созданный человеком, а не роботом, потому что контента, созданного роботами, будет все больше и он будет переполнять и социальные сети, и другие площадки», – говорил Боярский. С учетом роста объемов ИИ-контента уместно маркировать уже не его, а контент, созданный человеком, поддержал тогда Боярского Горелкин.

Основная проблема законопроекта в том, что разные типы генерируемого контента требуют разного типа регулирования, говорит эксперт Альянса в сфере ИИ Андрей Комиссаров. Проблема в том, что генеративные модели трансформируются, нейросети не маркируют создаваемый контент, не ставят водяные знаки, а качество дипфейков все время растет и отличить его от реального контента становится все сложнее, поясняет он. Важность определения ИИ-генерации в разных типах контента сегодня сильно разнится, отмечает Комиссаров: от крайне важной, созданной дипфейками, до менее важной в рекламном контенте или гибридной обработке текстов.

Главная проблема маркировки ИИ-контента – это фундаментальная сложность его детекции, подтверждает ведущий инженер-исследователь MWS AI (входит в МТС Web Services) Георгий Гайков. Уже сегодня не существует решений, которые позволяли бы с точностью, близкой к 100%, определить происхождение материала, отмечает он. А это означает, что любые требования по обязательной маркировке автоматически перекладывают риск ошибки на тех, кто публикует контент, – от СМИ до соцсетей, уточняет собеседник.

Кроме того, генеральный директор nikta.ai Никита Константинов отметил, что современные системы создания ИИ-контента могут накладывать на себя фильтры, которые не позволяют найти элементы генерации, что затрудняет поиск сгенерированного ИИ-контента. «В то же время все алгоритмы построены так, чтобы находить сгенерированный контент. Поэтому, как только такое происходит, создается фильтр, который ломает этот алгоритм, – поясняет он. – Но обнаружение таких систем требует времени, и пока оно будет внедряться, создатели дипфейков придумают фильтр, который будет обходить этот способ находить и изменять контент».

«Минус законопроекта был в том что предлагалось все виды генерируемого контента безотносительно сферы применения обрабатывать одним и тем же способом. Проверять контент на «ИИшность» нужно, но первична не сама проверка или сам контент, а ответ на вопрос – с какой целью это делается», – подчеркнул Комиссаров.

Например, крайне остро стоит вопрос в части публикации новостей от блогеров, где дипфейки могут принести много вреда, уточнил он. «Решать вопрос с дипфейкаии однозначно нужно, но важно быть аккуратными, в случае новостных сайтов и блогов ответственность может лежать на том, кто размещает, независимо от авторства контента», – резюмировал эксперт.

Выявление ИИ-контента – это «гонка вооружений», где технологии генерации развиваются быстрее, чем технологии детекции, сетует Гайков. Поэтому сам подход к регулированию должен быть осторожным, считает он: меры по маркировке, безусловно, нужны, но они не должны быть чрезмерно жесткими и обязаны учитывать объективные технические ограничения, включая невозможность полного и надежного отсеивания такого контента.