ИИ-законодатель
Допустимо ли использование больших языковых моделей в законотворчествеВ пятницу, 23 января, по Telegram-каналам разошлись сообщения о том, что Госдума, вероятно, использовала ChatGPT при работе над законопроектом «О государственной поддержке молодежных и детских общественных объединений». Первым об этом сообщил портал Rozetked. Как уточняло СМИ, в пояснительной записке к законопроекту есть ссылка на результаты опроса проекта «Пульс НКО» с UTM-меткой source=chatgpt․com – без ChatGPT, случайно появиться она не могла. Авторы новости уверены, что так или иначе при подготовке документа использовали нейросеть.
В самой Госдуме использование нейросети при подготовке законопроекта опровергают. Как сообщал ТАСС в тот же день со ссылкой на пресс-службу комитета Госдумы по молодежной политике, ChatGPT не применялся при написании текста законопроекта. «Материалы к законопроекту готовились на протяжении двух лет исключительно депутатами с командой юристов аппарата комитета. Сама пояснительная записка написана человеком, что подтверждает анализ рекомендованным к использованию в государственных органах российским ИИ-ассистентом GigaChat. А написание законопроекта является настолько сложным и профессиональным делом, что ИИ с этим не сможет справиться в принципе», – указали в пресс-службе комитета (цитата по ТАСС).
В пояснительной записке, которая не является частью законопроекта, тем не менее действительно есть ссылка на исследование с UTM-меткой из ИИ-ассистента, признали в комитете. «[Это] вызвано тем, что сотрудник аппарата комитета, работающий с пояснительной запиской, использовал ИИ как инструмент для быстрого поиска источника самого исследования. Само исследование и данные корректные, источник существует, и информация подтверждена», – сообщил ТАСС представитель комитета.
Проблема не в том, допустимо ли использовать в работе ИИ, и в особенности ИИ иностранного происхождения. Первое – норма сегодняшнего дня, в котором человек уже не в состоянии переварить предложенные и необходимые для работы объемы информации. Не использовать ИИ – все равно что ездить на лошади, игнорируя автомобили. Второе связано с тем, что российские модели не могут качественно обработать эти самые объемы информации, особенно столь специфической, как отечественное законодательство, без потери смысла.
Проблема в другом. У каждого, кто работает с ИИ, есть железное правило: доверяй, но проверяй. И оно тут не было выполнено: никто не перепроверил текст после его обработки ChatGPT, иначе этой метки бы в тексте не оказалось. Вот и получается, что законопроекты и пояснительные записки к ним зачастую никто не читает, кроме журналистов и их источников.
