Мошенники начали активно выманивать образцы голосов граждан

Они используются для обучения нейросетей и создания голосовых дипфейков
Евгений Разумный / Ведомости

В интернете выросло количество объявлений с предложением о платной озвучке рекламы и фильмов, публикуемых мошенниками. Сами по себе эти объявления не являются мошенническими, но собранные дата-сеты голосов злоумышленники используют для обучения нейросетей и генерируют на их основе аудиосообщения, с помощью которых вымогают деньги у друзей и родственников жертвы. О том, что такая схема набирает популярность, говорится в исследовании компании по кибербезопасности Angara Security (есть в распоряжении «Ведомостей»).

По словам представителя Angara Security, большая часть таких объявлений размещена в Telegram, но используются и другие ресурсы, например Habr или спам-звонки с предложением заработать на «большом проекте». Согласно исследованию, количество таких сообщений без учета спам-звонков в 2021 г. составляло 1200, в 2022 г. их количество выросло в четыре раза – до 4800, а к 2023 г. достигло 7000.

Авторы таких объявлений просят предоставить аудиозапись в формате телефонного звонка или записи разговора, которую необходимо отправить личным сообщением или боту. За участие в проекте предлагают гонорар от 300 до 5000 руб., который действительно может быть выплачен жертве.

«В данном случае сбор подобных аудиосообщений злоумышленниками происходит для обучения нейросетей генерировать голосовые сообщения, имитирующие жертву. Для этого изначально нужен реальный голос человека, чтобы придать достоверность аудиосообщениям. Созданные таким образом голосовые сообщения могут адресоваться родственникам, коллегам по работе, которых часто легко определить по данным в открытом доступе, а также банковским сервисам и другим интересующим мошенников целям», – пояснил представитель Angara Security.

О том, что злоумышленники стали чаще взламывать аккаунты пользователей в соцсетях и красть оттуда голосовые сообщения, в начале января 2024 г. предупреждал Сбербанк. Но оценить возможный ущерб от мошенничества именно с использованием дипфейков пока довольно трудно, так как случаев, которые удалось бы отследить или предотвратить, еще немного. Общий объем похищенных средств у граждан в 2023 г. составил 19 млрд руб., говорил зампред правления Сбербанка Станислав Кузнецов на конференции «SOC-форум 2023». По данным ЦБ, в 2022 г. объем хищений составил 14,2 млрд руб.

Руководитель сервиса аналитики и оценки цифровых угроз ETHIC ГК Softline Константин Мельников подтвердил, что в компании наблюдают тенденцию к увеличению использования поддельных аудио- и видеосообщений, отправляемых жертвам через мессенджеры, соцсети и комьюнити-платформы. По его словам, это связано с тем, что нейронные сети становятся все более доступными, значительно облегчают подделку контента и позволяют мошенникам с минимальными усилиями создавать убедительные фейки.

Эксперты отмечают еще один источник данных для мошенников – это видеоконтент из соцсетей, который находится в свободном доступе, отмечают авторы исследования. «Исходные данные для видео- и аудиофейков намного доступнее, чем кажется», – поясняет специалист по реагированию на инциденты Angara Security Алина Андрух. Кроме того, с начала 2024 г. исследователи Angara Security стали фиксировать случаи мошеннических схем с применением видеоконференц-звонков.

Увеличение популярности мошеннических схем с применением техники социальной инженерии и дипфейков отмечают и исследователи компании F.A.C.C.T. (бывшая Group IB). По словам ведущего аналитика департамента Digital Risk Protection F.A.C.C.T. Евгения Егорова, в одном мошенническом сценарии злоумышленники заставляли детей отдавать курьерам сбережения семьи, используя смоделированный голос родственника. Среди других распространенных способов мошенничества с использованием дипфейков и социальной инженерии Мельников назвал обход систем безопасности в сервисах с голосовой идентификацией, а также создание видеоконтента с использованием лиц и голосов знаменитостей. Последний способ, к примеру, используют для «продвижения» несуществующих инвестиционных проектов, добавляет старший исследователь данных «Лаборатории Касперского» Дмитрий Аникин.

По словам руководителя отдела аналитики угроз ИБ группы компаний «Гарда» Алексея Семенычева, сейчас наиболее популярной мошеннической схемой стала подделка голоса жертвы и обзвон ее контактов, чтобы оставить голосовые сообщения с просьбой о переводе средств. Сами данные для подделки голоса собираются в процессе обычного телефонного разговора злоумышленника с жертвой, поясняет он. По словам Семенычева, мошеннические схемы, связанные с подделкой изображения или видео, распространены в меньшей степени, так как более сложны и ресурсоемки. Такие активности в основном направлены на нанесение репутационного ущерба, уточняет он. «Отдельной проблемой становится верификация с помощью голоса в банковских приложениях, многие банки уже задумались о проверке голоса звонящего с помощью ИИ для выявления дипфейк-звонков», – говорит эксперт.

По словам представителя банка ВТБ, использование дипфейков при хищениях средств всегда тесно связано с социальной инженерией, на которую, по оценке банка, приходится примерно 80% всех похищенных мошенниками средств. При этом в действующей практике использование дипфейков чаще встречается не для имитации клиента или его знакомого, а для сокрытия внешности преступника, чтобы было невозможно установить его личность и задокументировать следы преступления, поясняет представитель ВТБ. В таких случаях чаще используются «личности» известных актеров или политиков, а также случайных пользователей, не связанных с атакуемым клиентом, уточняет он.

Сегодня опасность, связанная с получением образцов голоса и видео, крайне высока и создает реальную угрозу безопасности как для физлиц, так и для юрлиц, отмечает Мельников. Проверить подлинность подделанного голоса или видео можно лишь технически, предупреждает Семенычев.