Нейросеть намерена писать дипломы и помогать студентам

Минобрнауки попросили разъяснить правила использования искусственного интеллекта в вузах
Нейросеть считает, что может участвовать в образовательном процессе, но пока не готова, например, оценивать произведения искусства/ Андрей Гордеев / Ведомости

Минобрнауки попросили регламентировать использование генеративных моделей искусственного интеллекта (ИИ) в учебном процессе. Об этом говорится в письме Национальной комиссии по этике в сфере ИИ министру науки и высшего образования Валерию Фалькову. Копия письма есть в распоряжении «Ведомостей», представитель комиссии подтвердил его отправку. «Ведомости» направили запрос в Минобрнауки.

Комиссия – это общественная организация, образованная крупнейшими игроками в сфере ИИ для разработки этических правил работы ИИ. В нее входят представители «Сбера», «Яндекса», МТС, университета «Иннополис», фонда «Сколково», ЦСР, Центра ИИ МГИМО, «Сколтеха», Университета ИТМО, МГТУ им. Н. Э. Баумана.

Обращение в Минобрнауки было направлено после того, как студент Российского государственного гуманитарного университета (РГГУ) Александр Жадан написал дипломную работу с помощью чат-бота ChatGPT и успешно защитил ее. Чат-бот сгенерировал 60 страниц его диплома, а затем студент его доработал. После того как Жадан сообщил об этом в соцсетях, в вуз поступили претензии и требования лишить его диплома. В университете пообещали провести анализ работы. Затем Жадан в соцсетях написал, что диплом засчитали, а он получил за него оценку «удовлетворительно».

Позже представители вуза выступили с позицией ограничить доступ к использованию чат-бота ChatGPT в образовательных организациях, поскольку это может повлечь негативные последствия для учебного процесса. «Возникшая ситуация актуализировала необходимость оперативного решения задач, связанных с разработкой инструментов распознавания использования нейросетей при подготовке письменных работ (курсовые работы, эссе, рефераты, ВКР), а также увеличение количества оригинальных индивидуальных заданий, кейсов, расчетов, которые обучающиеся могут выполнить только самостоятельно», – говорилось в сообщении РГГУ.

«Все сейчас обсуждают резонансные случаи в образовании, но технологии продолжат развиваться, – заявил председатель комиссии по реализации Кодекса этики в сфере искусственного интеллекта, функционирующей на базе Альянса в сфере ИИ Андрей Незнамов. – Мы видим лучшее решение в том, чтобы адаптировать сферу образования к их использованию».

Комиссия указывает на этическую проблему, связанную с невозможностью отличить созданный ИИ текст от текста, созданного человеком. В то же время, продолжают авторы письма, использование ChatGPT и аналогичных решений может сократить время на проведение рутинных операций (компоновку материалов, форматирование текста). «Использование таких технологий может быть уместно и полезно для освоения отдельных специальностей и навыков и в ряде случаев не будет противоречить обязанности студентов выполнять работу самостоятельно», – считают авторы письма в Минобрнауки.

«Ведомости» попросили прокомментировать ситуацию сам ChatGPT. Генеративные нейросети можно использовать для развития и обучения студентов в учебных заведениях, считает нейросеть. «Они могут быть использованы для анализа больших объемов данных, а также для генерации сложных моделей и распознавания изображений», – объяснил ИИ. В то же время нейросети не следует использовать для решения вопросов, требующих человеческого мышления, оценки произведений искусства, процессов обучения и принятия решений, отметил ChatGPT.

Использовать в учебном процессе генеративные нейросети стоит в полную меру для создания новых проектов, полагает декан факультета инфокоммуникационных технологий ИТМО Александр Капитонов. По мнению эксперта, если эта технология помогает сделать содержание интереснее, то стоит ее использовать.

Вопросы регулирования

Необходимость разработать этические правила взаимодействия человека с ИИ возникла после утверждения президентом в 2019 г. Национальной стратегии развития искусственного интеллекта на период до 2030 г. В октябре 2021 г. появился Кодекс этики в сфере ИИ, а на общем собрании была создана комиссия по этике в сфере ИИ.

Но вопрос о легальности и закономерности использования генеративных моделей ИИ в учебном процессе не может рассматриваться отдельно от общих норм, регулирующих авторство произведений нейросети, говорит директор института № 8 «Компьютерные науки и прикладная математика» МАИ Сергей Крылов. Непонятно, кто в таком случае будет отвечать за результат, рассуждает Крылов, – разработавший модель математик, реализовавший ее программист или обычный пользователь нейросети. По мнению Крылова, применять в учебном процессе генеративные модели ИИ можно, за исключением тех заданий, в которых четко запрещено их использование. «Одно дело, если взята стандартная модель сети и запущена на генерацию, а совсем другое, когда был вклад студента как аналитика, который ставил задачу своему инструменту», – приводит он пример.

Но механизмы отслеживания написания текстов машиной или человеком еще не разработаны, говорит ведущий специалист по машинному обучению «Аурига» Владимир Суворов. По его словам, сейчас лучшая система дает детектирование только в 20% случаев.

Созданный ИИ контент часто содержит очень короткие предложения, говорит руководитель направления RnD Just AI Мурат Апишев. Это связано с тем, что ИИ пытается имитировать человеческое письмо, но пока еще не до конца освоил сложные предложения. Еще один способ определить творение ИИ – найти повторение слов и фраз. В сложных специализированных текстах ИИ можно поймать на смысловых нестыковках, несуществующих ссылках или искажении фактов.

Преподавателям теперь стоит более внимательно относиться к «ручной» проверке студенческих работ, рассуждает пресейл-архитектор платформы производства «Сфера» Дмитрий Чувиков. На защите дипломных и курсовых работ они должны задавать вопросы студентам и определять «автора» написанного текста, таким образом фиксируя то, что он понимает написанное и отвечает на вопросы по теме.

С юридической точки зрения использование технических средств является очевидным нарушением в том числе этических норм научного сообщества, утверждает руководитель направления «Разрешение It & Ip споров» юридической фирмы «Рустам Курмаев и партнеры» Ярослав Шицле. Законодательство не успевает за прогрессом, который в части ИИ в последнее время ускорился. Но некоторые страны уже стали адаптировать свои законы, продолжает он. К примеру, в таких странах, как Великобритания, Индия, Новая Зеландия, допускается признание прав авторства за человеком, который создал произведение с помощью ИИ, говорит Шицле. CША и Россия к таким государствам не относятся.

Генеративные нейронные сети сложно урегулировать, считает преподаватель Moscow Digital School Роман Янковский. Пока использование ИИ в образовательном и научном процессе законодательно не регламентировано, подчеркивает он. Но использование ИИ можно регулировать по аналогии с плагиатом, который запрещен, добавил он. Подобные разработки помогают снижать расходы на проведение научных исследований и ускоряют разработку новых технологий, говорит вице-президент по технологиям ИИ VK Андрей Калинин. Янковский считает, что разрешить использовать генеративные сети официально не получится.