Виктор Тарнавский: «ChatGPT не знает слово «салочки»

Директор по искусственному интеллекту «Тинькофф» Виктор Тарнавский о том, почему России нужны собственные решения, альтернативные ChatGPT
Пресс-служба АО «Тинькофф Банк»

Появление больших языковых моделей типа ChatGPT совершило революцию, и бизнес научится извлекать из технологии пользу в несколько триллионов долларов в год. Директор по искусственному интеллекту «Тинькофф» Виктор Тарнавский уверен, что все это будет развиваться в сторону специализированных языковых моделей. В чем их особенности и какое будущее их ждет, топ-менеджер рассказал в интервью «Ведомости. Инновации и технологии».

‒  Внедрение компаниями больших языковых моделей (Large Language Model, LLM) стало топовым трендом в мире. По оценке McKinsey, в целом генеративный ИИ может приносить мировой экономике до $4,4 трлн ежегодно. Какие задачи бизнеса помогают решать языковые модели? Где возникает добавленная стоимость?

‒  Основная польза лежит везде, где есть работа, связанная с текстом. Чем проще и понятнее эта работа, тем больше возможностей ее автоматизировать с помощью больших языковых моделей. Например, если речь идет об очень простой редакторской работе ‒ расставить заглавные буквы и точки, то большие языковые модели справляются с этим без проблем. Человеческий труд здесь больше не нужен. Но если, например, нужно написать стратегию развития компании на ближайшие несколько лет, то для языковой модели это слишком сложно.

Получается, что большие языковые модели могут брать простые задачи на себя, а на следующем уровне ‒ помогать человеку выполнять какую-либо задачу сложнее, например, предлагая по ней вариант, с которым человек может согласиться либо нет, или принять с небольшими корректировками.

‒  То есть технология помогает сокращать объем выполняемой человеком рутинной работы и высвобождать ресурс для творческой?

‒  С одной стороны, сокращается объем работы человека. С другой ‒ технология LLM позволяет масштабировать какие-то процессы, с которыми раньше нельзя было этого сделать. Можно привести в пример персональную  коммуникацию в маркетинге, когда формируется сообщение для конкретного человека. Раньше было невозможно писать отдельное сообщение для каждого, но теперь это можно сделать с помощью большой языковой модели ‒ создать персонализированное рекламное предложение.

‒  В каких секторах экономики языковые модели внедряются быстрее и успешнее всего?

‒  Больше всего внедрением LLM занимаются технологические компании как создатели технологии, но это, скорее, временная история. Мне кажется, надо смотреть на сферы, где польза самая очевидная. Например, клиентская поддержка, текстовые индустрии, написание кода.

Если смотреть на финансовый сектор, то сейчас банки становятся экосистемами, и «Тинькофф» ‒ пример такой трансформации. У нас много общения с пользователями, и не только по банковским услугам, но и по всем остальным в рамках экосистемы. В финансовой сфере тоже можно получить огромную пользу от больших языковых моделей.

‒  Могут ли LLM быть задействованы в продажах и как это происходит? Возможен ли сейчас полный цикл продажи, например, банковского продукта без помощи живого сотрудника?

‒  Да, у нас уже есть продажи, которые полностью совершают роботы. Но основная польза применения больших языковых моделей лежит не в области полной автоматизации, а в сфере комбинированных решений, когда технологии помогают людям решать задачу. Это может означать, например, что текст под коммуникацию создает большая языковая модель, а саму коммуникацию ведет человек. В продажах самое частое применение ‒ это создание самих материалов, и речь не только про звонки, но и про тексты и сообщения в уведомлениях. Теперь это все можно делать массово и в то же время персонализировано, под запросы конкретного человека.

Технологически робот может осуществить весь цикл продажи. Но это не означает, что у него получится сделать все хорошо. Бывают такие продажи, где персональное взаимодействие человека с человеком очень важно. Чем дороже покупка, тем это существеннее, например при сделках с недвижимостью. Здесь играют роль не только технологии, но и характеристики самих продаж.

‒  Какой банковский продукт можно продать полностью с помощью робота?

‒  Это будет продукт, где цена ошибки для человека не такая высокая, в то же время понятна польза. Например, в «Тинькофф» есть функция «Телефонный секретарь»: умный автоответчик «берет» трубку, когда человек не может ответить, и спрашивает, что ему передать. Это очень понятный продукт, и стоимость ошибки здесь низкая. Клиент может подключить данную функцию или отключить, и такую услугу можно продавать через робота.

‒  Появление ChatGPT совершило революцию в машинном обучении, но эксперты прогнозируют, что в будущем более широкое распространение получат специализированные отраслевые языковые модели. Вы согласны с этим мнением? Если да, то почему, по-вашему, это будет происходить?

‒  Мы считаем точно так же. Пространство для больших языковых моделей остается, но совершенно точно будут появляться и распространяться специализированные. В чем разница? Большие языковые модели могут делать сразу все, это такой большой мозг, которому надо уметь справляться со всем хорошо. В результате подобные системы сложно разрабатывать и развивать в силу их размера, они огромные. И они получаются достаточно дорогими, так как система проделывает большую работу, чтобы ответить на один вопрос. 

Специализированные языковые модели заточены под  конкретные отрасли. Они меньшего размера и хорошо решают задачи своей сферы. Например, это может быть поддержка клиентов, область финансов или покупок. Такие модели проще развивать, можно быстрее расширять их возможности, и они точно обгонят большую языковую модель в своей конкретной области. Например, мы тестировали ChatGPT в контексте задач для детей, и оказалось, что чат не знает слово «салочки» ‒ это специфическое слово для спектра детских задач, плюс оно на русском языке. Языковая модель должна знать не только само слово, но и все возможные связи этого слова.

Специализированные языковые модели отличаются как раз тем, что могут глубоко знать конкретный контекст. Они позволяют лучше разбираться в деталях той или иной области, для которой модель создана.

‒  Сейчас многие российские компании, в том числе «Тинькофф», разрабатывают собственные языковые модели. Насколько этот подход эффективнее? Хватит ли внутренних ресурсов, чтобы на выходе получился конкурентный продукт?

‒  Это в некотором смысле вынужденный подход. Мы должны это делать, нельзя зависеть от внешних решений. Причины могут быть разные ‒  как геополитические, так и законодательные в части использования данных клиентов. Совершенно точно должны быть альтернативные решения, которые развиваются на территории РФ. Тем более у нас есть инженеры, способные такие задачи выполнять, – это редкость, и нужно этим пользоваться. Получится или нет? Вообще-то уже получается.

‒  Вы недавно заявили, что «Тинькофф» планирует разработать собственные специализированные языковые модели для своей экосистемы, которые будут отличаться от ChatGPT. В чем их инновационность и какие задачи они помогут решать?

‒  Мы не строим общее решение, мы сфокусированы на том, чтобы сделать продукты и для пользователей, и для бизнеса на основе больших языковых моделей, а также существенным образом изменить пользовательский опыт. От «Тинькофф» точно стоит ждать новых продуктов на основе LLM. Один из многочисленных примеров ‒ запланировано внедрение функции автоматической генерации отзывов в «Тинькофф Селлер» и «Тинькофф Отзывах».

‒  «Телефонный секретарь» будет вовлечен в эти разработки? По сути, он тоже сделан на основе LLM.

‒  Да, это чат-бот поддержки, тоже языковая модель, которая будет развиваться, здесь также стоит ждать обновлений: будут запуски и перезапуски роботов.

‒  Есть опасения, что AI создает угрозу безработицы. Например, в банках роботы скоро могут заменить сотрудников в колл-центрах. Относите ли вы себя к числу AI-энтузиастов или, напротив, разделяете эти опасения и считаете, что внедрять машинное обучение нужно с осторожностью?

‒ Я себя отношу к AI-энтузиастам. Рисков не так уж много, скорее, это инструмент, который помогает решать людям задачи, а не заменяет их полностью. Большая часть внедрений ‒ это именно помощники, которые делают часть работы проще и эффективнее, решают задачи для сотрудников. Это очень позитивная вещь глобально. Наша жизнь станет лучше: что-то станет дешевле, что-то ‒ доступнее, мы все стремимся к будущему, которое в среднем лучше для людей. Что касается негативных последствий в виде потери работы некоторыми специалистами, то нужно предусмотреть заранее, как можно эти последствия сгладить.

‒  Например, переобучив людей?

‒  Да, появляются новые профессии: AI-тренеры или AI-редакторы например. В «Тинькофф» есть целая AI-редакция, сотрудники которой работают на пересечении журналистики, редактуры и продакт-менеджмента. Каждый AI-редактор глубоко погружается в продукт и обучает специализированные языковые модели «говорить» с клиентом на определенном языке: пишет тексты, оценивает качество ответов нейросети и умение поддержать разговор, делает фактчекинг.

‒  Готовы ли люди в целом и ваши клиенты в частности к тому, что им нужно общаться с роботами, чтобы получить информацию или сервис? Пока исследования показывают, что у многих вызывает отторжение такая коммуникация. Станет ли это препятствием на пути внедрения языковых моделей?

‒  Это вполне естественно. Идет процесс адаптации, нужно время. Люди со временем поверят роботам, увидев их пользу. Также есть отдельные сферы, где роботы не работают не потому, что люди им не верят, а потому, что у людей еще есть потребность в человеческом контакте, не надо это недооценивать. И, возможно, в таких ситуациях не нужно заменять человека на робота. Например, человек пришел в офлайн-магазин выбрать духи, и ему важно поговорить с экспертом в этой области. Такие ниши роботами, наверное, закрывать не нужно.

‒  Бывают ситуации, когда обученные роботы «фантазируют» в процессе коммуникации с клиентом, в результате человек получает недостоверную информацию. Эти риски удастся предотвратить в будущем, как вы считаете?

‒  Такая проблема существует: языковые модели и прочие подобные технологии могут начать что-то «придумывать». Индустрия учится с этим справляться, где-то получается хорошо, где-то сложнее. Чем креативнее задачи, тем хуже получается контролировать точность их выполнения. Индустрия со временем научится справляться с этим «придумыванием», как когда-то люди научились делать так, чтобы машины не ломались.

‒  Часто ли ваши роботы ошибаются?

‒  У нас такая философия: мы не выпускаем продукты, если они имеют хотя бы несущественную долю ошибки. Особенно это касается больших языковых моделей. Правило работает всегда, но бывают и исключения,  например роботы-болталки. У них задача скорее поболтать, и понятие ошибки здесь не совсем определено, главное, чтобы они не несли угрозы пользователям.

‒  Эксперты указывают на риск безопасности пользовательских данных при работе с языковыми моделями. Как разработчики LLM смогут его минимизировать?

‒  Это проблема внешних решений. Например, если вы используете ChatGPT, то заведомо рискуете. Правильнее использовать либо свои решения, либо те, что защищены от этих рисков. Самое безопасное ‒использовать собственные языковые модели, потому что вся информация находится во внутреннем техническом контуре.

‒  Можете дать общий прогноз по развитию языковых моделей на ближайшее время?

‒  Ассистенты смогут разговаривать с пользователем на его языке. Это большая ценность и самое большое изменение, которое произойдет. Думаю, что через десять лет любой актуальный продукт будет способен общаться с человеком и решать задачи на более высоком уровне, чем сейчас. Мы забудем про сложные интерфейсы, а взаимодействие человека с продуктом станет проще.