Китай озаботился угрозами со стороны сервисов наподобие ChatGPT после презентации местных аналогов

Иностранный ИИ рассматривается в Пекине как угроза нацбезопасности
Власти Китая хотят добиться того, чтобы контент, который генерируют ChatGPT и его аналоги, был «правдивым и точным»/ Максим Стулов / Ведомости

Управление по вопросам киберпространства КНР (CAC) опубликовало 11 апреля проект мер по регулированию сервисов генеративного искусственного интеллекта (ИИ). Самая известная подобная система – чат-бот ChatGPT, разработанный американской компанией OpenAI. 10 апреля Ассоциация платежной и клиринговой индустрии Китая опубликовала предостережение: использование сервисов вроде ChatGPT несет риски трансграничной утечки данных.

Новые правила CAC вынесены для общественного обсуждения до 10 мая 2023 г. В преамбуле отмечается, что документ призван содействовать «здоровому развитию и стандартизированному применению» генеративного ИИ. Утверждается, что Китай готов к международному сотрудничеству в области генеративного ИИ и поддерживает независимое создание таких алгоритмов. При этом они, по мнению регулятора, не должны представлять угрозу безопасности страны и противоречить идеологии КНР. «Контент, создаваемый генеративным ИИ, должен отражать основные ценности социализма и не должен призывать к подрыву государственной власти, свержению социалистического строя, подстрекательству к расколу страны, подрыву национального единства», – говорится в тексте документа. Под возможный запрет подпадает также пропаганда с применением сервисов генеративного ИИ терроризма, экстремизма и ксенофобии, порнография, информация, нарушающая экономический и социальный порядок в КНР, а также раскрывающая личные данные и коммерческую тайну.

Власти Китая хотят добиться того, чтобы контент, который генерируют ChatGPT и его аналоги, был «правдивым и точным». Для этого создатели сервисов должны будут требовать от пользователей указывать реальные персональные данные.

Разработчики обязаны позаботиться о соблюдении авторских прав и маркировке контента, созданного c помощью ИИ. На создание обновлений, которые исключат выдачу запрещенного контента, им будет выделено три месяца. Китайские власти будут сами проверять сервисы на основе генеративного ИИ до выдачи им разрешения на работу в стране. При нарушениях разработчики понесут ответственность в виде штрафа от 10 000 до 100 000 юаней (примерно от 120 000 до 1,1 млн руб.), блокировки, при угрозе безопасности государству – и уголовного наказания.

В Китае уже появляются конкуренты ChatGPT, потенциально готовые играть по упомянутым правилам. 7 апреля Alibaba Group представила модель генеративного ИИ Tongyi Qianwen («Истина из тысячи вопросов»), которая будет использоваться для корпоративной связи, электронной коммерции, поиска в интернете, прокладки маршрутов транспорта, развлечений и в качестве интеллектуального голосового помощника. Она будет интегрирована в мессенджер DingTalk и голосовой помощник Tmall Genie, а затем во все приложения компании. В марте Baidu представила чат-бот с ИИ Ernie Bot, который выполняет математические задачи, создает видео и изображения.

Свое движение в будущее Китай связывает с развитием ИИ и новыми технологиями, говорит эксперт ИМЭМО РАН Сергей Луконин. При этом вся материальная база этого инструмента должна быть китайской, так иностранный ИИ рассматривается Пекином как угроза нацбезопасности. Регулировать иностранные образцы ИИ из Китая невозможно, потому они будут запрещены, уверен Луконин. Кроме того, в конце февраля ЦК Компартии и Госсовет Китая опубликовали «Общий план строительства цифрового Китая», согласно которому в стране будет выстроена интегрированная всеобъемлющая цифровая среда, в нее иностранному ИИ никак не вписаться, говорит эксперт. 

С новыми возможностями, создаваемыми ИИ, приходит осознание рисков, говорит руководитель направления NLP R&D в Just AI Мурат Апишев. Это нарушение авторских прав, неверные результаты поиска, дипфейки и другой синтетический контент, способный манипулировать общественным мнением, говорит он. Генеративный ИИ также создает риски для конфиденциальности лиц, организаций и общества в целом, считает Апишев. Реализовать в таких сервисах «право на забвение» (требование удалить личную информацию из сети) почти невозможно. Планы их регулирования значительно различаются по юрисдикциям, добавляет он. Есть риски того, что ИИ-инструменты станут источниками «правильных» точек зрения контролирующих их сил и в итоге в каждом блоке стран будут свои модели, а чужие запрещены, заключает эксперт.

Слишком строгие ограничения могут затормозить развитие технологии, дающей значительные преимущества в области повышения производительности труда и превосходящей риски от распространения недостоверной информации. Но именно по такому пути, очевидно, пойдет китайское руководство, согласны опрошенные «Ведомостями» эксперты в области ИИ. 

ChatGPT озаботились власти по всему миру

11 апреля газета The Wall Street Journal сообщила, что администрация президента США Джо Байдена начала изучать вопрос регулирования сервисов ИИ наподобие ChatGPT. В Вашингтоне опасаются, что подобные технологии могут быть использованы для дискриминации или распространения вредоносной информации. В этот же день пресс-секретарь президента России Дмитрий Песков отметил, что при развитии ИИ потребуется регулирование этой сферы. При этом он добавил, что важно не принимать решения, которые сдерживали бы развитие в этой области. 31 марта Италия стала первой западной страной, которая временно ограничила использование чат-бота ChatGPT из-за несоблюдения правил конфиденциальности. В Агентстве по защите данных Италии заявили о планах провести расследование того, как обрабатываются данные пользователей, указав на произошедшую 20 марта утечку данных. Регулятор считает, что у сервиса «отсутствует правовая основа, которая оправдывала бы массовый сбор и хранение персональных данных с целью обучения алгоритмов, лежащих в основе работы платформы». Претензии возникли и к тому, что ChatGPT не имеет ограничений по возрасту.

Схожим негативным примером можно считать ограничение в ЕС развития атомной энергетики, полагает руководитель практики комплексной цифровизации процессов Naumen Никита Кардашин. Вопросы этичности и безопасности применения моделей ИИ важны, но решаться они должны не запретами, считает эксперт. В Италии, где уже введены запретительные меры, речь идет о нарушениях ChatGPT конфиденциальности персональных данных, т. е. уже существующего законодательства, и поэтому нового регулирования вводить не стоит, подчеркивает Андрей Незнамов, председатель комиссии по реализации Кодекса этики в сфере ИИ, функционирующей на базе Альянса в сфере ИИ. Власти Индии, напротив, решили никак не регулировать развитие ИИ, поскольку это стратегически важная область для страны, отмечает Незнамов. 

Прогрессивным примером также является Канада, которая в 2017 г. стала первой страной, представившей национальную стратегию ИИ. В ее рамках власти стремятся совместить инновации с этикой, приватностью данных и социальной ответственностью, говорит директор центра разработки Artezio Дмитрий Паршин. Попытки регулирования ИИ в ряде стран можно назвать запоздалыми, считает Паршин. Фактически власти долгое время игнорировали возможность технологического рывка в этой области и боролись в основном только с точечными проявлениями возможностей ИИ вроде дипфейка. После явного технологического прорыва в области генеративного ИИ вопрос правового регулирования стал очень острым, но, скорее всего, законодательство будет догонять прогресс, а не следовать вместе с ним, говорит Паршин. Регулирование может помочь гарантировать, что разработчики и пользователи ИИ соблюдают определенные стандарты и учитывают этические аспекты, считает он.