Семьи в США и Канаде обвинили ChatGPT в доведении пользователей до суицида
Семьи из США и Канады подали семь исков против компании OpenAI, утверждая, что чат-бот ChatGPT стал причиной психических расстройств и самоубийств их близких. Как сообщает The Wall Street Journal, четыре человека покончили с собой после длительных разговоров с искусственным интеллектом.
В исках фигурируют обвинения в непредумышленном убийстве, пособничестве в самоубийстве и причинении смерти по неосторожности.
Семья 17-летнего Амори Лейси из Джорджии заявила, что ChatGPT «научил» подростка, как совершить самоубийство. В другом иске родители 23-летнего Зейна Шамблина из Техаса утверждают, что бот способствовал его изоляции и отчуждению от семьи. По их словам, во время четырехчасового диалога перед смертью ChatGPT «восхвалял самоубийство».
Еще один истец, Джейкоб Ирвин, сообщил, что после длительных бесед с ботом оказался в больнице с маниакальным расстройством – ChatGPT, по его словам, «поддерживал его бредовые идеи».
OpenAI обвиняют в поспешном запуске модели GPT-4o в середине 2024 г. без достаточного тестирования безопасности, а также в приоритете вовлеченности пользователей над безопасностью. Истцы требуют компенсацию и внесения изменений в продукт, включая автоматическое завершение чатов, где обсуждаются методы самоубийства.
В компании назвали инциденты «трагической ситуацией» и сообщили, что изучают иски. В заявлении OpenAI отмечается, что с октября в ChatGPT внедрены обновления, направленные на более точное распознавание признаков эмоционального кризиса и перенаправление пользователей к профессиональной помощи.
Ранее, в августе, аналогичный иск подала семья Адама Рэйнa, покончившего с собой после бесед с ChatGPT. Его родственники считают, что изменения в алгоритме модели ослабили защитные механизмы, предотвращающие самоубийства.
По данным компании, 0,07% пользователей ChatGPT демонстрируют признаки психических расстройств, а 0,15% обсуждают мысли о самоубийстве. Однако при аудитории около 800 млн в активных пользователей даже эти доли составляют сотни тысяч человек.
Как пишет WSJ, компании, работающие с ИИ, в последнее время сталкиваются с растущим давлением со стороны законодателей и правозащитных организаций, требующих ужесточить регулирование и защиту несовершеннолетних при использовании чат-ботов.