Мнения / Аналитика / Политэкономия
Статья опубликована в № 4621 от 01.08.2018 под заголовком: Угроза высокотехнологичных фейков

Авторы фальшивых новостей стали изобретательнее

Подделку все сложнее отличить от добросовестной работы
Рула Халаф

Недавно мне показали несколько десятков изображений Дональда Трампа. Некоторые из них были настоящими, другие созданы с помощью цифровых технологий. Я не смогла найти отличия между ними. Когда меня попросили выбрать три изображения, которые мне показались фальшивыми, я угадала только одно.

Если вам казалось, что фальшивые новости (фейки) – это проблема, то добро пожаловать в мир дипфейков (deepfake – высокотехнологичная подделка) и потенциальной угрозы безопасности, которую они могут создать. Уже сейчас с помощью искусственного интеллекта можно сымитировать речь или изображение человека. Таким образом создается альтернативная реальность, в которой кто-либо может сказать или сделать то, чего он на самом деле не говорил и не делал.

Чтобы создать дипфейк, нужно загрузить в компьютер изображения человека и запись его голоса и дать ему задание сымитировать речь и мимику (а возможно, и многое другое). Для этого уже существует приложение FakeApp, в котором можно создать фальшивку (есть видеоинструкции). Некоторые энтузиасты уже научились подставлять лица знаменитостей в порнографические видео. Пока дипфейки еще далеки от совершенства и их можно распознать. Но технологии развиваются быстро. Возможно, уже через два-три года мы будем видеть людей и слышать их разговоры, не будучи уверены, реальны они или сфабрикованы.

Исследователи из Вашингтонского университета провели исследование, попытавшись создать серию видеороликов с Бараком Обамой, используя его голос и общедоступные съемки. Фактически они смоделировали рот бывшего президента, чтобы создать «искусственного Обаму». В Стэнфордском университете исследователи работали с движениями головы и глаз, морганием и взглядами, чтобы создать на компьютере видеоизображение, которое сложно отличить от реального.

Такие технологии могут творить чудеса в кинопроизводстве и в сфере виртуальной реальности. В недалеком будущем, возможно, кардинально изменится дубляж фильмов. Например, мексиканские актеры мыльных опер смогут говорить на английском (или китайском, или русском) и выглядеть при этом более правдоподобно. Технологии помогут преодолеть языковой барьер во время видеоконференций, обеспечивая в режиме реального времени перевод на требуемый язык и одновременно меняя черты лица говорящего. Это облегчило бы проведение международных бизнес-конференций и публичных мероприятий.

Но некоторые люди или страны также могут начать злоупотреблять технологиями и распространять ложную информацию. «Если сложившиеся в последние годы тенденции продолжатся, фейковые видеоизображения будут все активнее использоваться для продвижения политических интересов, – считает Ясмин Грин, директор по исследованиям и разработкам в Jigsaw, аналитическом центре компании Alphabet. – Предыдущие попытки были технически достаточно простыми, поэтому их легко можно было разоблачить. Но технологии развиваются быстрее, чем осознание нами угроз, которые они несут».

И эти угрозы уже реализуются. В мае прошлого года хакеры проникли на сайт и страницу в соцсети информационного агентства Катара и разместили там заявления, якобы сделанные эмиром. Разразился дипломатический скандал, а соседи Катара использовали фейковую новость, чтобы оправдать введенный ими экономический бойкот страны. «Этот случай показывает, что есть желание использовать фальшивые новости для достижения политических целей, – говорит Грин. – А представьте, если бы у них [хакеров] были технологии для создания дипфейков».

Недавно во время местных выборов в Молдавии на странице агентства Al Jazeera в Facebook появился фрагмент информационной программы с субтитрами на румынском языке. Там говорилось, что один из кандидатов в мэры предлагает отдать остров в аренду Объединенным Арабским Эмиратам. Хоть ролик и был фейковым, он быстро распространился в интернете.

Вред, который сегодня могут нанести фальшивые новости, бледнеет по сравнению с потенциальной угрозой от дипфейков. Они могут не только заставить людей поверить в неправду, но и подорвать доверие ко всему вокруг, беспокоится Авив Овадья, главный технолог в Центре ответственности социальных медиа при Мичиганском университете. «Это повлияет на все сферы нашего общества, от правовых принципов до работы журналистов», – говорит он.

Специалисты разведслужб и оборонных ведомств хорошо осведомлены о том, как далеко продвинулись работы по созданию видео на компьютере (наверное, они и сами активно этим занимаются). Поиском решений для защиты и распознавания фейковых изображений также активно занимаются некоторые ведущие исследователи, технологические компании и государственные структуры.

Я надеюсь, что они решат эту проблему намного быстрее, чем в случае с фейковыми новостями.

Перевела Наталья Ильина

Автор – заместитель главного редактора Financial Times

Читать ещё
Preloader more