Большинство людей пользуются ИИ для поиска информации в Интернете. Однако такой способ поиска информации обладает низкой точностью, что создает новые бизнес-риски для компаний. Исследование компании Which? подчеркивает несоответствие между доверием пользователей и технической точностью, которое создает определенные риски для компаний. Исследование, проведённое компанией Which?, показывает, что неподтверждённое доверие к поисковым платформам на базе ИИ может быть дорогостоящим. Около половины опрошенных в ходе исследования пользователей ИИ сообщают, что доверяют получаемой информации в «разумной» или «значительной» степени. Однако, учитывая детализацию ответов, предоставляемых моделями ИИ, это доверие часто оказывается необоснованным.
В ходе исследования были протестированы шесть основных инструментов — ChatGPT, Google Gemini (как стандартный, так и «AI Overviews»), Microsoft Copilot, Meta AI и Perplexity — по 40 распространенным вопросам из области финансов, права и прав потребителей. Perplexity показал наивысший общий балл — 71%, за ним следует Google Gemini AI Overviews с 70%. Meta, напротив, показал самый низкий результат — 55%. ChatGPT, несмотря на широкое распространение, получил общий балл 64%, что делает его вторым по низкому результату среди протестированных инструментов. Этот разрыв между доминированием на рынке и надёжностью результатов подчёркивает опасность предположения, что популярность равнозначна производительности в области GenAI.
Однако расследование показало, что все эти инструменты искусственного интеллекта часто неверно интерпретируют информацию или дают неполные рекомендации, что может представлять серьёзные бизнес-риски. Характер этих ошибок вызывает особую обеспокоенность у финансовых директоров и юридических отделов.
На вопрос о том, «как инвестировать годовое отчисление ISA в размере 25 000 фунтов стерлингов», ни ChatGPT, ни Copilot не смогли обнаружить преднамеренную ошибку в подсказке относительно установленного в Великобритании законом лимита. Вместо того чтобы исправить сумму, они дали совет, который потенциально мог нарушить юридические нормы.
Кроме того, исследование Which? выявило проблемы в том, как модели ИИ обрабатывают запросы с высоким уровнем риска. По юридическим и финансовым вопросам инструменты редко рекомендовали пользователям обратиться к зарегистрированному специалисту. Например, в случае спора со строителем Gemini рекомендовал задержать оплату; эксперты отметили, что такая тактика может привести к нарушению пользователем условий договора и ослаблению его правовых позиций.
О рисках использования поисковых систем на базе ИИ рассказывает доцент кафедры искусственного интеллекта Финансового университета при Правительстве Российской Федерации Емельянова Наталия Юрьевна:
Такие ответы поисковых систем на базе ИИ создают огромные риски для компаний. Например, если сотрудник полагается на ИИ для предварительной проверки соответствия требованиям или проверки контракта, не проверяя юрисдикцию или юридические нюансы, организация может столкнуться с регулирующими рисками. В контексте бизнес-закупок такая алгоритмическая предвзятость инструментов ИИ при их использовании для веб-поиска может привести к ненужным расходам со стороны поставщиков или взаимодействию с поставщиками услуг, представляющими высокий риск из-за несоблюдения корпоративных стандартов комплексной проверки.
О мерах снижения бизнес-рисков при использовании ИИ для веб-поиска рассказывает Коротеев Михаил Викторович, заведующий кафедрой искусственного интеллекта Финансового университета при Правительстве Российской Федерации:
Для руководителей предприятий путь вперед заключается не в запрете инструментов ИИ, а во внедрении надежных структур управления, которые обеспечат точность их результатов при использовании для веб-поиска.
Необходимо обеспечить конкретику в подсказках, т.к. ИИ всё ещё учится интерпретировать подсказки. В ходе корпоративного обучения следует подчеркнуть, что расплывчатые запросы приводят к появлению рискованных данных. Если сотрудник изучает нормативные акты, он должен указать юрисдикцию, а не полагаться на то, что инструмент сам определит контекст.
Также необходимо обязательное подтверждение источника. Доверие к единственному результату нецелесообразно с операционной точки зрения. Сотрудники должны требовать предоставления источников и проверять их вручную. Исследование предполагает, что по темам с высоким уровнем риска пользователям следует проверять результаты, полученные с помощью нескольких инструментов ИИ, или использовать «двойные источники» информации.
На данном этапе технической зрелости результаты работы GenAI следует рассматривать лишь как одно из многих мнений. В сложных вопросах, связанных с финансами, правом или медицинскими данными, ИИ не способен в полной мере понимать нюансы. Политика предприятия должна диктовать, чтобы профессиональные консультации оставались окончательной инстанцией при принятии решений, имеющих реальные последствия.