Согласно исследованию компании Wiz, занимающейся обеспечением безопасности облачных вычислений, гонка среди компаний по внедрению систем ИИ, заставляет многих пренебрегать элементарными мерами безопасности. В исследовании говорится, что 65% из 50 ведущих компаний в сфере искусственного интеллекта, специализирующихся на кибербезопасности, допустили утечку подтверждённых секретных данных на GitHub.
В отчёте Wiz подчёркивается всё более сложный риск безопасности цепочки поставок ИИ-инструментов. Эта проблема выходит за рамки внутренних команд разработчиков. В исследовании делается акцент на том, что некоторые из обнаруженных ими утечек «раскрывали организационную структуру, данные обучения или даже частные модели компаний». В отчёте Wiz говорится, что эта проблема приобрела широкий характер и стала сильно распространённой, т.к. традиционные методы сканирования безопасности уже неэффективны.
Исследователи описывают ситуацию как «айсберг» (т.е. наиболее очевидные риски видны, но большая опасность лежит «под поверхностью»). Чтобы обнаружить эти скрытые риски, исследователи применили методологию трехмерного сканирования. В ходе глубокого сканирования была проанализирована «полная история коммитов, история коммитов на форках, удаленных форках, журналы рабочих процессов и основные сведения» — области, которые большинство сканеров «никогда не трогают». Сканирование было расширено за пределы основной организации компании, включив в него её членов и участников. Эти лица могли «непреднамеренно занести секретную информацию, связанную с компанией, в свои собственные публичные репозитории». Команда выявила эти смежные учётные записи, отслеживая участников кода, подписчиков организации и даже «взаимосвязь в связанных сетях, таких как HuggingFace и npm». Исследователи специально искали новые типы секретов, связанные с ИИ, которые традиционные сканеры часто пропускают, например ключи для таких платформ, как WeightsAndBiases, Groq и Perplexity.
О рисках безопасности рассказывает доцент кафедры искусственного интеллекта Финансового университета при Правительстве Российской Федерации Емельянова Наталия Юрьевна:
Такое расширение поверхности атаки вызывает особую тревогу, учитывая очевидную незрелость систем безопасности во многих динамично развивающихся компаниях. Многие компании не имеют официального канала раскрытия информации или просто не решают проблему после её получения. Использование базового сканирования основных репозиториев GitHub компании — это «стандартный подход», упускающий из виду самые серьёзные риски. В настоящее время руководители служб безопасности должны рассматривать своих сотрудников как часть поверхности атаки компании.
О действиях по управлению как внутренними, так и сторонними рисками безопасности рассказывает Коротеев Михаил Викторович, заведующий кафедрой искусственного интеллекта Финансового университета при Правительстве Российской Федерации:
Компаниям желательно разработать политику в отношении участников системы контроля версий, которая будет применяться при адаптации новых сотрудников. Эта политика должна предусматривать такие меры, как использование многофакторной аутентификации для личных учётных записей и строгое разделение личной и профессиональной активности на таких платформах, как GitHub. Такой уровень контроля должен быть распространен на всю цепочку поставок ИИ. При оценке или интеграции ИИ-инструментов руководителям по информационной безопасности следует проверять их практику управления секретами и раскрытия уязвимостей, т.к. многие поставщики ИИ-услуг допускают утечку собственных API-ключей.
Главным нюансом для компаний является то, что инструменты и платформы, определяющие следующее поколение технологий, разрабатываются такими быстрыми темпами, которые зачастую опережают темпы совершенствования систем управления безопасностью. Поэтому вопросу безопасности при внедрении ИИ-инструментов необходимо уделять особое внимание и постоянно совершенствовать контур безопасности своей компании.