Андрей Себрант, Андрей Комиссаров: «Вас заменит не GPT – вас заменит человек с GPT в кармане»

«Ведомости» задали главные вопросы об ИИ участникам рынка
На XX форуме «Телеком» Андрей Себрант (в центре) и Андрей Комиссаров пришли к выводу, что ИИ пока не представляет опасности для человека/ Вартан Айрапетян

Искусственный интеллект (ИИ) стал главным технологическим трендом. Все о нем слышали, однако у каждого остаются вопросы, связанные с актуальными или будущими возможностями этой технологии, с ее правовым статусом или морально-этическими принципами ее использования. В рамках XX форума «Телеком», организованного «Ведомостями» и прошедшего 9 апреля, на все эти «неудобные» вопросы отвечали руководитель направления цифровых продуктов образовательной экосистемы «Самолетум» (входит в группу «Самолет»), представитель Альянса искусственного интеллекта Андрей Комиссаров и директор по стратегическому маркетингу «Яндекса» Андрей Себрант. Участники паблик-тока должны были вынуть случайный вопрос из стопки карточек и ответить на него за строго отведенное время. Часть этих вопросов была придумана самим ИИ, однако такая карточка выпала лишь один раз.

– Психологи считают: чтобы свернуть горы, человеку нужно всего два качества – воля и воображение. Теперь же вместо воображения все чаще используют генеративный ИИ. Что нужно делать человечеству, чтобы не потерять способность к развитию?

Андрей Себрант: Человечество всю жизнь что-то передавало на аутсорс, поэтому то, что мы сейчас передаем какие-то функции Алисе или «Шедевруму», абсолютно нормально. Самое главное, что нам остается, – это деятельное любопытство. Пока мы этим отличаемся – все хорошо. Пока оно у нас есть, мы можем придумать, чем озадачить даже самую хитрую нейросеть, что нарисовать с помощью «Шедеврума». Поэтому деятельное любопытство – это то, что нас спасет.

Андрей Комиссаров: Я с другой стороны зайду. Да, мы можем очень много чего упрощать. Вообще весь прогресс идет по пути упрощения. То есть мы упрощаем ряд процессов с помощью технологий, но, когда мы начинаем упрощать нашу собственную волю, тогда возникает вопрос – где пределы человечности? В какой момент наша человечность оказывается под угрозой? И что вообще делает нас людьми?

– Насколько широко можно применять большие языковые модели, LLM? Есть ли какие-то заложенные в них принципы, которые ограничивают сферу их применения?

А. К.: Сейчас из каждого утюга раздаются три буквы – GPT (от англ. Generative Pre-trained Transformer, «генеративный предварительно обученный трансформер». – «Ведомости»). Большие языковые модели захватывают наше внимание. ChatGPT, например, получил [первые] 5 млн пользователей за пять дней. Instagram [в свое время] на это потребовалось 75 дней. Большие языковые модели могут применяться много где, но нужно не забывать, что у них очень низкий уровень ответственности. Есть целый ряд вещей, где ответственность за принятие решений должна лежать на человеке, при этом большая языковая модель может этого человека усилить.

Я очень много общаюсь со студентами, и меня все время студенты спрашивают: неужели всех заменит GPT? Зачем вообще тогда учиться, если нас все равно всех заменит GPT? Вас заменит не GPT – вас заменит человек с GPT в кармане. А способы применения больших языковых моделей пока что известны далеко не все.

А. С.: Часто говорят: нельзя допускать, чтобы задачу, определяющую что-то важное в жизни человека, например выдачу большого кредита, решала языковая модель или вообще ИИ, потому что они могут ошибаться. Я должен заметить, что вообще люди ошибаются чаще и те, кто говорит про ошибки языковых моделей, видимо, с людьми давно не разговаривали. Человечество выработало кучу всяких компенсаторных механизмов. И есть прекрасный административный инструмент: там, где доверили какому-то ИИ принимать важные для человека решения, должно быть право апелляции и законодательно апелляцию должен рассматривать живой человек. И тогда вдруг окажется, что вся вот эта проблема, которую так любят обсуждать, например, журналисты, вообще-то говоря, из пальца высосана.

«Искусственные интеллекты постепенно становятся дитями порока»

– Вопрос от Алисы. Может ли ИИ заменить человеческий труд в определенных областях, да?

А. С.: Боюсь, что любой список, если я его буду зачитывать, во-первых, выйдет за отведенное для ответа время, а во-вторых, устареет к тому моменту, когда мы покинем это помещение.

А. К.: Какие, по статистике, сейчас самые востребованные профессии в России? Это курьеры. А самые востребованные специалисты в любой индустриальной сфере – это слесари высокого разряда. Заменит ли их ИИ? Например, роверы «Яндекса» развозят еду, на улице города их все больше и больше. Но мы видим, что они эту конкуренцию не совсем выдерживают, особенно зимой. А если мы, например, возьмем дроны, которые будут разносить еду по воздуху, там вопросов будет еще больше, потому что это будет зависеть от законодательного регулирования воздушного пространства. Тут мы, собственно, все эксперименты с дронами и завершим. Есть целая плеяда направлений, в которых ИИ просто будет бессмысленен. Например, ИИ, скорее всего, не будет заменять сантехников. Сантехники очень востребованы. Мужики, у которых руки растут из правильного места, очень востребованы.

А. С.: Я должен заметить, что ты прав абсолютно насчет сантехников. Я сам люблю приводить этот пример, но очень важно, что, когда людям говорят, что есть точно профессии, в которые ИИ никогда не влезет, «ну, например, психологи», они оказываются не правы. Потому что уже сегодня массовые опросы показывают, что есть большой процент людей, которые предпочитают общаться насчет своих проблем с психологом не белковым.

– Прагматичный расчет или эмоциональный контекст влияет на принятие решений ИИ? Насколько это можно сравнивать с поведением человека?

А. К.: Если мы посмотрим, как устроена модель, то, конечно, об эмоциональном контексте говорить не приходится. Хотя есть очень интересные такие казусы, в которых мы видим, что искусственные интеллекты, такие, как GPT, постепенно становятся дитями порока. Они учатся на большом объеме наших коммуникаций, в которых мы проявляем алчность, лень, токсичную риторику и проч., и они очень хорошо это усваивают. Мы можем сказать языковой модели, например, «я не дам тебе за это ни копейки» или «я дам тебе за это 200 баксов» – и качество генерации будет лучше во втором варианте. Это пример того, как, обучаясь на наших с вами данных, на наших с вами страстях и пороках, модель что-то проявляет.

Может ли она демонстрировать поведение, похожее на человека? Нет, потому что человек практически всегда ведет себя холистически (целостно, интегративно. – «Ведомости»). Мы смотрим на фактуру целиком, на нас может повлиять, например, тональность света фонаря. Машина сейчас гораздо менее нюансирована, гораздо более алгоритмична и гораздо менее холистична.

А. С.: Ну я здесь не соглашусь. На самом деле это, во-первых, регулируемый параметр в большинстве моделей, а во-вторых, то, что вы сейчас видите, – это специально продуманное убирание творчества, вдохновения, всяких приколов и т. д. Потому что модели, которые мы сегодня используем, – это наши ассистенты. Я не хочу слишком эмоционально возбудимого ассистента. А вы хотели бы, чтобы вам креативно удалили аппендикс?

– Может ли у ИИ быть сформировано понятие морали или этики?

А. С.: Нет, хотя я знаю людей, которые со мной не согласятся, но я твердо уверен: то, что делаем, действительно называется «искусственным интеллектом». И вроде бы большинство философов в мире сходятся на том, что этика и мораль – это свойство не интеллектуальное. Человечество знает, насколько интеллектуальными могут быть чудовищно аморальные люди.

А. К.: Сформироваться само точно не может, а быть сформировано кем-то – может, в формате определенного набора конкретных этических ограничений. Например, это могут быть пресловутые законы робототехники Азимова, могут быть любые другие ограничения. Рано или поздно специалисты придут к тому, чтобы насыщать большие языковые модели системными промптами, задающими набор моральных ограничений.

А. С.: Мы знаем, какими, мягко выражаясь, конфузами кончились попытки включения таких ограничений с точки зрения современной западной этики, когда эта модель отказывалась генерить исторических личностей исключительно одного цвета кожи. Это вот попытка сделать ровно то, о чем ты говоришь.

«Человек всегда должен принимать решение сам»

– Должен ли в будущем человек наделить ИИ правами?

А. К.: Смотря какими правами. Правами управления автотранспортным средством ИИ уже, в принципе, наделен. Если речь идет о гражданских правах, я бы сказал, что все нужно делать поэтапно и для начала стоит рассмотреть вопрос о том, чтобы человек сам себя наделил гражданскими правами. У нас гражданское общество не то чтобы много где построено. И если смотреть на западные демократии, которые радуются тому, насколько у них [развитое] гражданское общество, то сейчас мы с вами наблюдаем, как это общество вдруг перестает быть гражданским. И прежде чем наделять правами ИИ и говорить, что он имеет право на что-либо, нужно посмотреть, а в какие сферы жизни и куда вообще стоит пускать ИИ.

Мне кажется, здесь вопрос более серьезный, может быть даже экзистенциальный. Я бы посмотрел в сторону так называемого трансгуманизма, который говорит о том, что эпоха хомо сапиенса закончилась, да и хомо сапиенс сапиенс тоже уже весь вышел. А сейчас новая мыслящая раса – это человекомашинный интеллект. Я, честно говоря, с этим категорически не согласен, и я считаю, что ИИ нужно отдавать исключительно функциональные сопровождающие элементы решения задач, которые человеку помогают, а не заменяют его.

А. С.: Ну а я думаю, не совсем так. Мне кажется, что все вот эти вот штучки, которые мы создаем в области современных цифровых технологий, – они формируют очень важную, совершенно неотъемлемую часть всего мира, в котором мы живем. В этом смысле я люблю концепцию метавселенной, согласно которой мы живем в суперпозиции цифрового и материального миров. Так вот в мире уже есть довольно немало примеров, когда разные нечеловеческие объекты вполне наделяются правами. Например, все мы знаем про защиту прав животных, а, кажется, в Новой Зеландии реки и водопады тоже имеют свои права. И в этом смысле я совершенно не вижу причин, почему объект внешней природы, который мы называем ИИ, не может быть наделен теми же правами, что и водопад.

– В начале 2023 г. бельгиец покончил с собой после шести недель общения с чат-ботом Элизой. Должны ли разработчики Элизы понести за это ответственность?

А. С.: На мой взгляд, абсолютно нет. Потому что если человек купил в магазине нож для разделки мяса, три дня его использовал по назначению, а на четвертый отрубил голову себе или своей жене, то изготовитель ножа не должен нести ни малейшей ответственности за это.

А. К.: Я полностью согласен с Андреем. Мы сейчас видим, к сожалению, что – либо в силу того, что у нас медиаконтекст становится более плотным, либо в силу того, что в мире происходят всякие сложные для восприятия вещи, – количество психоневрологических заболеваний в мире неуклонно растет. Поэтому что нож, что кувалда, что ИИ – все, что угодно, может стать причиной ухода из жизни определенного ряда людей. Это проблема не ножа, не кувалды и не нейросети. Это проблема общества и конкретного человека.

– Есть ли профессии, в которых технология ИИ не должна использоваться для замены людей ни при каких условиях?

А. К.: Я бы в первую очередь здесь говорил о трех профессиях. Во-первых, это профессии, связанные с принятием важных государственных управленческих решений. Разумеется, ИИ может применяться здесь как отдельный функционал, но ни в коем случае не замещать. Человек всегда должен принимать решение сам. Во-вторых – это, конечно, не профессия, а скорее роль, – это родительство, которое также должно полностью оставаться на стороне людей. Иначе мы тогда действительно, как хотят трансгуманисты, превратимся в другую расу.

В-третьих, ситуация с педагогами, но она непростая. По сути, это профессия быть значимым взрослым в становлении ребенка. Значимым взрослым может быть наставник в кружке, вожатый в лагере, учитель в школе. И вот такого значимого взрослого в жизни ребенка не сможет заменить ИИ. Потому что это чувство локтя, эмоциональный обмен с возможностью обняться и проч. Поэтому в этих трех направлениях нельзя, а в остальных вполне можно подумать.

А. С.: Ты сказал важное ключевое слово – роль. Действительно, говорить про профессии в этом смысле не очень правильно, потому что в ближайшие пять лет понятие «профессии» сильно размоется. А роли нельзя делегировать. Потому что ролевой моделью для человека может быть только другой человек. Воспитывать человека также может только человек, имеющий опыт и авторитет. Хотя встречаются преподаватели, которые являются прямолинейными трансляторами знаний и отклоняются от ролевой модели объясняющего и мотивирующего. Вот такого преподавателя заменить не то что можно, а нужно.

«Бессмертие – это именно то, что помешает человеку остаться человеком»

– Может ли ИИ решить проблему бессмертия?

А. С.: Я не вижу запретов. Почему нет? Практически мы не знаем многого связанного с биологическими процессами старения. Эта тема активнейшим образом исследуется, и уже можно сдвинуть границу средней продолжительности жизни человека за сотню лет. Но вопрос бессмертия пока биологам непонятен. Я верю, что ИИ ускоряет медицинские исследования. Например, раньше новые белки разрабатывались и придумывались десятилетиями, а сейчас генерятся в недрах фармкомпаний со скоростью несколько штук в месяц. Если проблема бессмертия в принципе решаема, то темпы нахождения решения со стороны ИИ будут высоки.

А. К.: В целом соглашусь. Но я бы по-другому задал этот вопрос. Проблема заключается не в бессмертии, а в повышении продолжительности жизни. У нас определенная зрелость разума все-таки к определенному возрасту только начинает формироваться. Поэтому продолжительность жизни важна, а вот проблему бессмертия категорически нельзя решать. Это одна из табуированных тем, потому что бессмертие – это именно то, что помешает человеку остаться человеком. Сам факт того, что люди смертны, делает нас людьми. Если тебе есть за что умирать – тебе есть ради чего жить. Если ты понимаешь, что срок твоей жизни ограничен, ты стараешься что-то совершить, а не просто плывешь по течению. Я бы даже сказал, что смерть – это один из самых больших подарков, который есть у человека, и отнимать его – значит прекращать человеческий вид как таковой.

– Вероятно ли то, что люди, обучавшиеся с помощью ИИ, будут с трудом коммуницировать с другими людьми?

А. К.: Если мы сейчас посмотрим вокруг, например на наших детей, то мы увидим, что у них гораздо меньше близких друзей, чем было у нас. Мы увидим, что современные дети гораздо меньше находятся в живом диалоге с другими. Многое происходит в онлайне или многопользовательских онлайн-играх и т. п. У нас налицо тенденция уменьшения живого общения. Но вызвано ли это тем, что человек общается с LLM? Я бы сказал, что скорее нет, чем да. Кроме шуток, мой старший сын общается с LLM-психологом. Он объяснил это так: «Приду я к какой-то непонятной тетке, а ведь я знаю, чему их на психфаке учат, буду смотреть в ее пустые глаза, а она мне будет по шаблону зачитывать диагнозы. Поэтому я лучше пойду к элэлэмке – это то же самое, только мне комфортнее». Я бы сказал, что это, в принципе, проблема современного общества – отсутствие насыщенного естественного общения – и LLM здесь большой роли не сыграет.

А. С.: Я твердо уверен в том, что это зависит от самих людей, а не от элэлэмок. По роду деятельности приходится сталкиваться с теми, кто с элэлэмками взаимодействует большую часть своего времени, потому что с ними чертовски интересно общаться.

– В каких отраслях ИИ уже используется и какие результаты это принесло?

А. С.: Сейчас, к сожалению, мы всеми силами давим креативность ИИ. Одна американская писательница несколько лет назад получила доступ к ранним версиям GPT, когда про них вообще никто нигде не слышал. Она написала рассказ, который взял первое место на конкурсе каких-то рассказов, а сама писательница была поражена тем, что все сильнейшие, с ее точки зрения, места были написаны нейросетью.

Прошло несколько лет, появился GPT-4, и она решила попробовать написать вместе с GPT-4 рассказ и поняла, что это полный отстой. Она пришла к разработчику и спросила: какого черта вместо гениального соавтора она получила непонятно что. Он ей ответил: «Хороший рассказ имеет героя не только положительного, но отрицательного, и этот подонок делает мерзкие вещи. Мы все два года вложили в то, чтобы сетка не могла публично придумать и посоветовать ни одну мерзкую вещь». В хорошем рассказе может быть очень плохой конец. Мы же хотим, чтобы наша нейросетка была позитивной. Никаких смертей в конце. Поэтому сейчас большая часть возможностей ИИ выкручена в минимум. Я подозреваю, что использование открытого кода приведет к тому, что появятся модели, которые будут страшно ругать в прессе и требовать их запретить и в которых эти ограничения искусственно навешиваемой гири на ногах будут сняты. Поэтому и появился Grok (нейросеть, разрабатываемая стартапом Илона Маска, в нее будет заложено чувство юмора. – «Ведомости»). Маск хотел взбудоражить это болото.

– ИИ внедряется в 20 раз быстрее интернета и смартфонов, в 25 раз быстрее персональных компьютеров, в 40 раз быстрее электричества. Как вы думаете, может ли какая-то другая инновация побить этот рекорд?

А. К.: Боже мой! Кто это считал?! Конечно, какая-либо другая точно может. Здесь не спрашивается, какая конкретно, но я отвечу: телепортация. Она будет внедрена быстрее, чем ИИ.

А. С.: Ну телепортация уже существует в наших головах как идея. Прелесть ИИ и вообще новых технологий в том, что они делают то, что нам казалось немыслимым и мы просто про это не знали. Я думаю, что рано или поздно наши генеративные модели сгенерят такую инновацию, которая нам просто не приходит в голову. И вот эти штуки могут взлететь куда быстрее, чем сами генеративные сеточки.

– Если ИИ дать возможность принимать решения, может ли наступить момент, когда он решит уничтожить все человечество?

А. С.: Может, если человечество вдруг по какой-то причине полностью потеряет разум. Если кто-то когда-то передаст неинтеллектуальную функцию – определять судьбу человечества – инструменту, который предназначен для решения сугубо интеллектуальных задач, то этот дурак и будет ответственен за проблемы человечества, возникшие в итоге.

А. К.: Да, конечно, может, и я абсолютно согласен с Андреем, что ни в коем случае нельзя допускать, чтобы такая возможность возникла. Но почему может уничтожить – это интересный вопрос. Нас мотивирует то, что мы считаем красивым, поэтому мы стараемся поступать красиво. Мы стараемся поступать по совести, потому что совесть – это красиво. Мы стараемся создавать красивые вещи. Мы стараемся обучать наших детей, потому что наши дети – это красиво. Умные – это тоже красиво. Для ИИ красиво – это максимально эффективно. Человек категорически неэффективен. Те флуктуации, которые возникают в наших страстях и эмоциях, те переживания, та наша лень и прокрастинация – это жуть как неэффективно. И в этом смысле человек совершенно достойный кандидат для уничтожения.

А. С.: Ну ладно, ты уж не рисуй ИИ как инструмент повышения эффективности. Генеративные модели генерят не только эффективные решения, но и совершенно фантастической красоты картинки. Да, заданные человеком, но человек, который умело работает с ними, потом просто офигевает от того, какую красоту он вдруг получил на выходе.

А. К.: Только красота – в глазах смотрящего.