Законы робототехники для банков

Три нерешенных вопроса использования искусственного интеллекта в финансах

ВТБ анонсировал создание совместной с Московским физико-техническим институтом (МФТИ) специальной лаборатории, которая займется внедрением прикладных технологий искусственного интеллекта (ИИ) в сервисы банка. При этом в ВТБ отметили, что выполнение до 70% «задач аналитики и автоматического принятия решений» в банке уже проходит с использованием ИИ. Ранее и глава «Сбера» Герман Греф оценил общий эффект от внедрения ИИ в банке: по его оценке, чистый операционный доход «Сбера» от использования таких технологий в 2021 г. достигнет 145 млрд руб.

Конечно, пока в отчетности банков мы этого не увидим: эффект от внедрения ИИ посчитать сложно, еще труднее – формализовать, отделив от других факторов. Но очевидно, что и обучающиеся нейросети, и более простые роботизированные системы анализа информации занимают все большую долю в рабочих процессах банков, страховщиков, инвестиционных компаний. Речь о трейдинге, андеррайтинге и тарификации в страховании, о выявлении мошенничества, об оценке кредитных рисков заемщиков и моделировании рыночных сценариев, наконец, о роботизации общения с клиентами с помощью голосовых и текстовых ботов.

При этом уже сейчас банкиры признают, что сами не всегда понимают, почему, например, скоринговые роботы выдают тот или иной результат. И здесь возникает множество тонких моментов с точки зрения ответственности за принятие решений, управления рисками, доступа к данным. Финансовые регуляторы во все мире, в том числе Банк России, в скором времени должны будут сформулировать правила применения ИИ в банкинге и в других сегментах финансового рынка.

Известная проблема – замена живых сотрудников на ИИ, и не только в рутинных процессах, но и в более интеллектуальных, – на самом деле не является здесь ключевой. Есть вопросы посерьезнее.

Первый: должен ли регулятор или, может быть, аудитор либо аналогичная надрыночная структура валидировать модели, используемые искусственным интеллектом? Ведь робот – это субъект действий, но не субъект права. Кто несет ответственность за его решения? Производитель или банк, который его использует, или менеджер, который курирует его работу? Здесь начинается сложный путь определения, какую информацию создатель и эксплуататор искусственного интеллекта мог бы дать регулятору, — это ведь и ноу-хау, интеллектуальная собственность, и реальное конкурентное преимущество, которое не может быть открытым для посторонних.

Отсюда второй вопрос — кибербезопасность. Как только появляется шлюз проверок и контроля регулятора за ИИ, используемыми им моделями и данными, сразу же кратно возрастает риск «промышленного шпионажа» и утечек данных клиентов.

Третий вопрос: как могут быть устроены санкции регулятора за «неправильное» применение искусственного интеллекта и необходимо ли «резервирование» под потенциальные потери от действий ИИ — грубо говоря, отдельный учет подверженности таким рискам?

В любом случае, регуляторам, скорее всего, придется в ближайшем будущем сформулировать что-то вроде азимовских законов робототехники для финансового искусственного интеллекта. Например, таких: робот не должен причинять вред своему банку и его клиентам, должен следовать только валидированным алгоритмам и обеспечивать кибербезопасность. Однако в отдельных случаях эти принципы могут войти в противоречие между собой. Это, в свою очередь, потребует выстраивания иерархии приоритетов, а они у участников рынка разные. И конфликты в таком случае неизбежны.