Посадить ИИ на привязь

Нужно запретить ему принимать решения, но активнее использовать как помощника для черновой работы

Поставьте на паузу эксперименты с гигантским искусственным интеллектом! Так начинается опубликованное в конце марта открытое письмо известных представителей технологической отрасли. К настоящему моменту обращение подписало уже больше 27 000 человек, в их числе Илон Маск, Стив Возняк, ученые, разработчики и владельцы бизнеса. После релиза интеллектуального чат-бота ChatGPT, а следом и языковой модели GPT-4 они призвали объявить шестимесячную паузу в разработке более мощных версий и начать дискуссию о будущем искусственного интеллекта (ИИ). Не отменить разработки совсем – об этом речь не идет, а именно поставить на паузу.

Главная проблема, поднятая в письме, состоит в том, что мы еще не сформировали своего отношения к мощным интеллектуальным системам. Мы не знаем, как с ними обращаться, у нас нет ни правовой базы, ни этических норм. Общество и институты пытаются осознать, насколько силен ИИ, понять риски этой технологии и определить ее место в нашей жизни.

Например, раньше люди просто ставили сами себе диагноз c помощью Google, и это было забавно (до тех пор пока не приводило к запущенным формам и осложнениям). А теперь можно загрузить в систему реальную историю болезни, со снимками и анализами, и получить конкретный диагноз или совет. Но это неправильно, это пока нельзя делать нормой и вводить в тот свод правил, по которым организовано наше совместное существование в обществе. В тот свод правил, который, собственно, и называется этикой. Понесет ли система ответственность за ложноположительный диагноз или за то, что прикажет срочно рубить ногу? Кто будет отвечать, если чат-бот сольет вашу историю болезни на сторону? Мы же понимаем, что медицинские данные – из самых чувствительных, от них может зависеть жизнь.

С корпоративными данными тоже сложно. 2 мая появились сообщения, что Samsung запретил своим сотрудникам использовать генеративные ИИ-системы. Запрет ввели после того, как обнаружилось, что кто-то «скормил» боту фрагмент конфиденциального внутреннего кода – и теперь непонятно, где он хранится, кому доступен и как его удалить. И вообще, вопрос безопасности распространения данных с появлением ИИ нового поколения, таких как GPT4, стал подниматься все чаще. С одной стороны, пользоваться такой системой нужно, чтобы быть конкурентным, с другой – нельзя заливать в облачную систему коммерческую и конфиденциальную информацию. Сейчас эту проблему пытаются решить, создавая версии для установки в закрытый контур корпораций.

Корпорациям нужны советы и правила, сами они не справляются с вопросами этики использования ИИ. У каждого технологического гиганта была группа по этике, которая объединяла визионеров, футурологов, философов с одной стороны и разработчиков, дизайнеров, архитекторов – с другой. И как раз эти специалисты попали под недавние масштабные сокращения, которые волнами прокатились по мировой IТ-индустрии. Наиболее символично получилось у Microsoft – группу по этичному ИИ компания буквально разгромила в том же марте, когда запустили актуальную версию ChatGPT.

А на прошлой неделе подал в отставку с поста вице-президента Google Джеффри Хинтон – «крестный отец ИИ», пионер нейросетей и лауреат премии Тьюринга за исследования в области ИИ. Причина – Хинтон теперь намерен открыто говорить о рисках, которые принесли в мир его работы. «Посмотрите, какой была ситуация пять лет назад, к чему мы пришли сейчас и что будет дальше при сохранении таких темпов. Это страшно, – заявил Хинтон в интервью The New York Times. – Сможем ли мы предотвратить использование ИИ плохими парнями в плохих целях? Трудно сказать». Хинтона также заботит, что интернет будет наводнен фальшивыми фотографиями, видео и новостями и мы «больше не сможем понять, что есть правда».

Все говорят о ChatGPT, но, помимо интеллектуального чата, существует много незаметных для людей решений, в которых используется ИИ и которые работают с данными. Они не связаны с технологиями natural language processing (NLP, обработка естественного языка), а касаются, например, автопилотов, роботов и т. п. И правильным было бы вырабатывать комплексный подход к новым реалиям информационного общества, а не заниматься лоскутным освоением. Не ограничиваться, к примеру, регулированием одного вопроса о том, можно ли загрузить в алгоритм ИИ свою флюорографию.

Что делать, когда автономный автомобиль сбил человека или автономный дрон упал на человека? Кто виноват: производитель автомобиля, оператор дрона, сам человек или никто? Это сейчас неочевидно, так как нормы еще не выработаны. А не выработаны они потому, что мы все еще находимся в самом начале нового технологического уклада.

Посмотрим на программный документ по использованию ИИ, который выпустила в конце марта Великобритания. Он формулирует пять принципов работы с ИИ:

  • безопасность,

  • прозрачность,

  • справедливость,

  • подотчетность,

  • возможность возмещения ущерба.

Мы видим, что эти пять принципов уже отражают накопившийся опыт и возникавшие проблемы. Но вопрос о том, кто несет ответственность и возмещает ущерб, все еще остается открытым. Профильным регуляторам Великобритании отвели год, чтобы с учетом изложенных принципов создать практическое руководство для выработки законопроекта по регулированию ИИ.

Пока наиболее надежные схемы использования ИИ – это так называемое «усиление интеллекта», когда человек использует ИИ, технологии и устройства как продолжение себя. Как некий инструментарий, который помогает ему лучше выполнять свою работу. Если ИИ по-английски – AI (artificial intelligence), то «усиление интеллекта» – это IA (intelligence amplification). И такой подход реалистичен и реализуем в рамках пяти принципов.

Вернемся к медицинскому примеру. Мы не можем доверить постановку диагноза машине. Но это не значит, что нужно отказываться от технологий. ИИ действительно во многих случаях точнее оценивает данные, чем человек, может лучше распознать аномалии при диагностике рака или проблемах с суставами. Эти системы обучены на знаниях многих людей, но даже точные алгоритмы иногда приводят к неверным выводам. Вероятность ошибки небольшая, но статистически она есть изначально. Поэтому ответственность за диагноз должен нести именно врач, он принимает решения.

Мы не можем совсем убрать руки с руля. Когда вы используете автомобиль с автопилотом – используйте его лишь в качестве ассистента водителя, который помогает подруливать, держать полосу, парковаться или затормозить, если вы отвлеклись.

Умная система, контролируемая человеком, – это пока самый надежный вариант использования ИИ. Всю ответственность следует оставить на человеке, который принимает решения.

В целом вся формальная система взаимоотношений человека с ИИ будет складываться постепенно, а конкретные вопросы – решаться по прецедентам. Эта реальность станет привычной лишь для следующего поколения, представители которого будут воспринимать новые ценности и правила как базовые и само собой разумеющиеся. И чтобы это когда-то случилось, сейчас нужно запретить ИИ принимать решения самостоятельно, но начать активнее использовать его как помощника для черновой работы. Тогда ближайшим вопросом станет – как научить людей действительно использовать новые инструменты для усиления собственного интеллекта, а не для генерации невиданных котиков.