Эксперты OpenAI и Anthropic предупредили о рисках ускоренного развития ИИ
Ведущие специалисты компаний OpenAI и Anthropic предупредили о нарастающих рисках стремительного развития искусственного интеллекта (ИИ). Об этом сообщает Axios.
По данным издания, ряд исследователей публично выражают обеспокоенность тем, что новые модели ИИ развиваются быстрее, чем механизмы их контроля. Некоторые сотрудники покинули компании, ссылаясь на этические соображения и «экзистенциальную угрозу», которую, по их мнению, представляет технология.
Axios отмечает, что последние версии моделей, включая ChatGPT и Claude, становятся значительно мощнее и способны самостоятельно создавать и совершенствовать сложные продукты. В частности, сообщается, что одна из новых моделей OpenAI участвовала в собственном обучении, а инструменты Anthropic продемонстрировали способность к автономному развитию.
Несмотря на сохраняющийся оптимизм внутри компаний относительно управляемости технологии, сами разработчики признают потенциальные риски. Anthropic выпустила доклад, где отметила, что искусственный интеллект теоретически способен применяться в тяжких преступлениях, включая создание химического оружия, хотя вероятность этого невелика.
В то же время OpenAI, по информации Axios, расформировала команду, отвечавшую за «выравнивание» технологий общего искусственного интеллекта (AGI), что вызвало дополнительную дискуссию в профессиональном сообществе.