Искусственный интеллект научился писать фейковые новости

А отличить фальшивые видео от настоящих становится все сложнее
Евгений Разумный / Ведомости

Правдоподобные фейковые новости существуют давно. Однако благодаря искусственному интеллекту (ИИ) создавать их становится проще и быстрее. Вместе с этим растет беспокойство, что развитие ИИ и технологии deepfake (дипфейк – высокотехнологичная подделка), используемой для создания фальшивых видео с известными людьми, позволит активнее распространять дезинформацию и вводить в заблуждение.

Насколько известно экспертам, пока написание фейковых новостей с помощью ИИ использовалось только в исследовательских целях, отмечает The Wall Street Journal (WSJ). Первым известным инструментом для создания фейковых новостей стала программа GPT-2, которую в феврале представила OpenAI, некоммерческая исследовательская организация из Сан-Франциско, пишет WSJ. GPT-2 выдумывает не только новости, но также рассказы и диалоги, анализируя текст на 8 млн веб-страниц. У нее получается делать это настолько хорошо, что 72% из 500 опрошенных в августе человек приняли написанную GPT-2 новость за настоящую. Для сравнения: настоящую новость назвали правдоподобной 83% респондентов. Таким образом, даже если люди не верят фейковым новостям, само их наличие может подорвать доверие к СМИ, отмечает Сара Крепс из Корнеллского университета.

Учитывая возможные риски, OpenAI пока предоставила специалистам доступ лишь к ограниченной версии GPT-2, чтобы они разработали способ находить искусственно сгенерированные тексты.

Помимо этого специалисты Вашингтонского университета и Allen Institute for Artificial Intelligence в июне представили программу Grover, способную писать и определять фейковые новости. Также израильская AI21 Labs в августе разместила на своем сайте инструмент для генерирования текстов HAIM. Испытать его может любой желающий. Для этого нужно придумать начало и конец истории, выбрать длину текста и одну из предложенных тем, а ИИ придумает содержание.

AI21 Labs считает опасения по поводу технологии преувеличенными. По словам ее сооснователя Йоава Шохама, использование ИИ для пропаганды по-прежнему ограничено, поскольку он недостаточно хорошо анализирует политический контекст, чтобы зацепить целевую аудиторию. «Лишь кажется, что в этих историях есть смысл, но это не так», – заявил Шохам в интервью WSJ.

Его мнение разделяют Ецзинь Чой из Вашингтонского университета и Allen Institute for Artificial Intelligence, участвующая в разработке Grover. Тем не менее она предупреждает о возможных рисках в будущем: «Опасность возникнет, когда будет много похожей пропаганды, написанной людьми, на основе которой нейронные языковые модели смогут учиться генерировать похожие статьи. Такие фейковые новости могут стать довольно убедительными».

Правительство США уже обеспокоено возможной угрозой. В конце августа Агентство по перспективным оборонным научно-исследовательским разработкам США (DARPA), работающее при Пентагоне, представило программу Semantic Forensics, цель которой – найти защиту от дезинформации. Специалисты Массачусетского технологического института и Гарвардского университета в марте представили похожий на Grover инструмент GLTR, который старается определить искусственно сгенерированный текст, пытаясь предугадать в нем каждое последующее слово и анализируя частоту совпадений.

Это может превратиться в своеобразную гонку вооружений, но не факт, что инструменты для определения фейковых новостей будут совершенствоваться так же быстро, предупреждает Джек Кларк из OpenAI.

Кроме того, теперь становится сложно отличить от настоящих не только поддельные тексты, но и изображения. ИИ позволяет создавать дипфейки, правдоподобно имитирующие речь и движения людей. Это уже используется в Голливуде для «омоложения» актеров. В недавно вышедшем в прокат фильме «Гемини» 23-летний клон персонажа Уилла Смита – не реальный актер, а его полностью воссозданная цифровая копия, пишет Finanсial Times (FT). Но дипфейки также могут использоваться, чтобы выставить в невыгодном свете политика или другого известного человека, показав, что он сделал или сказал то, чего на самом деле не делал и не говорил.

Для создания дипфейков не обязательно иметь многомиллионный голливудский бюджет, отмечает FT. Так, в сентябре на YouTube появился ролик со сценами из фильма «Матрица», где главного героя играет не Киану Ривз, а все тот же Уилл Смит. Для его создания пользователь Sham00k использовал бесплатную программу DeepFaceLab.

Хотя качество любительских дипфейков пока гораздо ниже, чем в Голливуде, эта технология «действительно развивается очень быстро», признает Катя Бего из некоммерческой исследовательской организации Nesta. В качестве примера она приводит китайское приложение Zao, которое быстро стало популярным в сентябре, позволяя пользователям заменить собой персонажа Леонардо Ди Каприо в сценах из «Титаника» или других киногероев. «Раньше было легко вставлять лишь лица знаменитостей и политиков, поскольку [в интернете] полно видео с ними, – отмечает Бего. – Теперь достаточно одной фотографии обычного человека».