ЦРУ и ФБР получат закрытый аналог ChatGPT для работы с открытыми источниками

Технологии уже готовы, но риски использования ИИ спецслужбами для граждан сохраняются
Getty Images

Спецслужбы США обзаведутся генеративным искусственным интеллектом (ИИ) в виде аналога ChatGPT, который позволит просеивать огромные массивы общедоступной информации в открытых или коммерчески доступных источниках для поиска улик. Как заявил директор подразделения ЦРУ по открытым исходным кодам Enterprise Рэнди Никсон, в ближайшее время планируется предоставить соответствующим американским ведомствам свой инструмент ИИ.

По словам Никсона, ЦРУ готовится внедрить функцию, аналогичную известной программе, разработанной специализирующейся на машинном обучении американской OpenAI Inc. Инструмент позволит пользователям из персонала спецслужб видеть исходный источник информации, которую они просматривают, сказал Никсон. Он добавил, что функция чата является логичной частью более быстрого распространения разведывательной информации. «Затем вы можете перейти на следующий уровень и начать общаться и задавать вопросы машинам, которые дадут вам ответы, также полученные из источников», – сказал Никсон (цитата по Bloomberg).

Инструмент ИИ будет доступен всем 18 разведывательным агентствам США, в том числе ЦРУ, АНБ, ФБР и агентствам, управляемым родами вооруженных сил. Никсон не сообщил, какую именно модель ИИ будет использовать спецслужба в качестве основы для своего нового инструмента и как она будет защищать информацию от просачивания в открытый интернет.

Сейчас спецслужбы, в том числе США, уже располагают всеми необходимыми техническими возможностями для использования ИИ – у них есть современные архитектуры нейросетей, большой объем доступных данных, вычислительные ресурсы, говорит младший научный сотрудник Института теоретической и математической физики МГУ Ольга Мигачева. Она предполагает, что, скорее всего, будет использоваться архитектура глубоких нейронных сетей наподобие Transformer.

Но, продолжает эксперт, сохраняется вопрос о том, безопасно ли доверять результатам, сгенерированным такой нейросетью, так как ей будут подаваться на вход огромные массивы общедоступной информации, среди которой будут и недостоверные данные. «На данном этапе не обойтись без верификации и проверки результатов человеком, как в медицинских кейсах: нейросеть может предположить диагноз пациента по данным, но окончательное решение принимает врач. Возможно, источники и данные будут фильтроваться сотрудниками спецслужб, перед тем как их будут использовать для обработки с помощью нейросети», – считает Мигачева.

ChatGPT и аналоги в целом умеют связно отвечать на вопросы и суммировать доступную информацию, замечает директор по развитию бизнеса IT-разработчика «Формат кода» Александр Жуков. По его словам, нейросеть суммирует все, что читала, но, если на вход аналогичной сети вместо форумов и «Википедии» выдать дополнительные данные в сочетании с открытой информацией, она сможет все консолидировать и связно описывать различные параметры, находить первоисточники информации. «Роль этой сети можно сформулировать как некий «автоматический аналитический отдел», который может просеять массу предоставленной ему и просто известной заранее информации, объяснить оператору обнаруженные закономерности и ответить на дополнительные вопросы. Получится ли всегда точно определить первоисточник – вопрос скорее к тому, насколько сильно его спрятали. В простых случаях, к примеру для социальных волн в соцсетях, всегда можно обнаружить источник волны», – поясняет Жуков.

Именно у ChatGPT с первоисточниками как раз проблемы, напоминает сооснователь компании Parodist AI Владимир Свешников. По его словам, модель допускает фактологические ошибки. «Правда, эту проблему сейчас активно решают. Основная причина, по которой разные компании и, видимо, госструктуры уже занимаются разработкой собственных аналогов, – конфиденциальность. OpenAI имеет доступ ко всем диалогам пользователей, и не все хотят делиться с ними данными», – говорит Свешников.

По словам Никсона, технология не будет доступна политикам и общественности, а ЦРУ «внимательно следует законам США о конфиденциальности». Но с точки зрения законодательства в США нейросети пока находятся в серой зоне, нет существенных ограничений на эту сферу, напоминает партнер фирмы «Рустам Курмаев и партнеры» Дмитрий Горбунов. Он отмечает, что нейросети не запрещены, работы по их созданию и развитию не подлежат лицензированию или иному контролю со стороны органов исполнительной власти. Единственное, что ограничивает разработчиков и тех, в чьих интересах нейросети создаются, – это нормы, регулирующие сбор, обработку, хранение и использование персональных данных, сведений, составляющих коммерческую, государственную, военную, врачебную, банковскую тайну. «Распространяются ли эти ограничения на деятельность спецслужб, органов следствия и государственной безопасности и иных силовых ведомств – вопрос, который не имеет однозначного ответа», – замечает Горбунов.

По его словам, с одной стороны, американский закон гарантирует защиту персональных данных, конфиденциальность переписки и иных сведений, которые не могут свободно распространяться без разрешения субъекта информации, в том числе и от не санкционированного судом доступа к ним. «Если лицо не дает разрешения на сбор, обработку, хранение и передачу третьим лицам данных, любые из этих действий будут противоречить закону», – отмечает Горбунов.

С другой стороны, важно понимать, что в США, как и в большинстве стран, интересы нацбезопасности в ряде вопросов выходят на первый план, подчеркнул юрист. Такие структуры могут наделяться экстренными полномочиями, позволяющими обходить ограничения, а приниматься подобные решения могут и без должного информирования субъектов данных «в интересах обеспечения безопасности государства», рассуждает Горбунов.

«Нашумевшая история с программой PRISM, в рамках которой могли собираться сведения, хранящиеся на серверах Microsoft, Apple, Facebook, Google (ответом на эту историю в России стал «пакет Яровой»), показывает, что полностью исключить злоупотребления и утечки в сфере сбора и хранения сведений невозможно», – говорит Горбунов. Он в данном случае напоминает о скандале 2013 г., когда в американскую прессу попали данные о массовой слежке АНБ с помощью PRISM за перепиской и разговорами граждан США и иностранцев.

По словам Горбунова, существенной разницы в том, собираются ли данные вручную или с использованием нейросетей, нет ни с точки зрения требований соблюдения закона, ни с точки зрения рисков утечек. «Защита может быть взломана, любая информация, к которой есть доступ хотя бы у одного человека, может утечь», – заключает юрист.