Этика ИИ в государственном секторе – доверие как условие цифровой трансформации

Растущее проникновение нейросетевых решений в практику государственного управления обещает повышение эффективности и скорости обработки данных, однако сопровождается рядом фундаментальных этических вызовов. Говорить о цифровой трансформации госструктур без учета этих вызовов — значит игнорировать риски, способные поколебать доверие общества к государству как таковому.

Сегодня ключевым напряжением становится дилемма между эффективностью алгоритмических решений и необходимостью сохранить человеческое измерение в системах принятия решений. Если автоматизированная система выносит решение — например, отказ в социальной выплате, миграционную блокировку или прогноз риска преступления — но не может объяснить логику этого решения, перед гражданином возникает «черный ящик», в котором исчезает субъект ответственности. Кому апеллировать, если ошибку допустил не человек, а система? Прецеденты такого рода уже есть. Алгоритм оценки школьных экзаменов в Великобритании в 2020 году массово занижал оценки выпускникам общеобразовательных школ, несправедливо отсекая их от вузов. В США система COMPAS приговорила афроамериканских подсудимых к заведомо более суровым мерам, чем белых — просто потому, что обучалась на искаженных данных. В России в гипермаркете в Москве система распознавания лиц ошибочно идентифицировала обычного покупателя как преступника: человека задержали, доставили в полицию, и только случайная проверка позволила избежать серьезных последствий.

Такие эпизоды поднимают не только вопрос технологической зрелости ИИ, но прежде всего — вопрос этического выбора. Можем ли мы делегировать машине право на суждение, если она не чувствует ни контекста, ни последствий? Особенно в государственном секторе, где любое решение касается прав и свобод граждан. Ошибочная идентификация, дискриминационная модель или несанкционированная утечка данных — это не просто технические сбои, а подрыв доверия к институтам. И если доверие исчезает, ни один цифровой сервис не сможет быть устойчивым.

Проблема усугубляется тем, что многие государственные системы, активно внедряющие ИИ, по-прежнему уязвимы в плане кибербезопасности. Только с начала 2025 года в России зафиксировано 35 крупных утечек персональных данных, в результате которых в сеть попали сведения о более чем 39 миллионах пользователей. Более 300 миллионов записей оказались в открытом доступе. Алгоритмы, обрабатывающие данные граждан, становятся одновременно инструментом управления и объектом повышенного риска. Приватность гражданина, право на контроль за своими данными и возможность отказа от их обработки без санкции — все это должно быть встроено в архитектуру цифрового государства по умолчанию. Без этого ИИ превращается из союзника в угрозу.

На международной арене признается необходимость нормативной и этической рамки для ИИ в публичных системах. В 2021 году ЮНЕСКО опубликовала первую глобальную Рекомендацию по этике искусственного интеллекта, где основным условием устойчивого развития технологий называется человекоориентированность: алгоритмы не могут существовать вне социального контекста и должны усиливать — а не подменять — человеческое суждение. Российская практика уже сделала первые шаги в этом направлении: принят Кодекс этики ИИ, создана Комиссия по этическому регулированию в этой сфере. Но этих шагов недостаточно.

Необходима единая и обязательная система тестирования, аудита и сертификации ИИ-систем, используемых в госсекторе. Требуется прозрачность алгоритмов — не в смысле раскрытия исходного кода, но в смысле объяснимости логики их решений. Каждый гражданин должен иметь право узнать, почему система приняла то или иное решение, и как это можно обжаловать. Человеко-машинное взаимодействие должно быть построено на доверии, а доверие формируется не технологией, а правилами: открытостью, подотчетностью, правом на пересмотр.

Там, где решения затрагивают фундаментальные права — как в правосудии, здравоохранении, социальной защите — человек должен оставаться в финальном контуре принятия решений. Ни одна нейросеть не обладает интуицией, совестью или моральной ответственностью. Поэтому ИИ может быть только помощником, но не судьей. При этом в ряде случаев участие человека должно быть формализовано: например, через экспертные комиссии, автоматические «тормоза» внедрения, механизмы регулярного аудита, независимые наблюдательные советы.

Государство, которое хочет строить цифровую среду, должно начать с этики. Именно этика, а не функциональность - станет критерием устойчивости ИИ-систем. Там, где гражданин знает, что его данные защищены, что его голос учтен, а алгоритм прозрачен - там возможна цифровая трансформация, заслуживающая доверия. Там, где этого нет, нейросети перестают быть инструментом, а становятся угрозой.

Адамская Л.В.,

доцент кафедры Государственного и муниципального управления Финансового университета при Правительстве Российской Федерации

Другие пресс-релизы