DeepSeek представила новую флагманскую языковую модель V4
Китайская компания DeepSeek выпустила новую большую языковую модель DeepSeek-V4 и открыла к ней доступ. Об этом сообщает The Wall Street Journal со ссылкой на заявление компании.
Новая версия получила заметные улучшения в так называемых агентских способностях. По данным компании, она уже используется внутри DeepSeek как базовая модель. DeepSeek-V4 базируется на архитектуре MoE (Mixture-of-Experts), которая позволяет активировать часть системы для более эффективной работы. Пользователи отмечают, что она превосходит ряд конкурентов по удобству работы и качеству результатов.
В феврале OpenAI обвиняла DeepSeek в использовании метода дистилляции – подхода, при котором компактная модель обучается воспроизводить поведение более сложной и обученной системы. Bloomberg отмечал, что распространение моделей без платной подписки, как у DeepSeek, усиливает конкуренцию на рынке ИИ и может создавать давление на американские компании, включая OpenAI и Anthropic, инвестировавшие значительные средства в развитие технологий.
17 апреля издание The Information сообщало, что DeepSeek оценили в $10 млрд в рамках привлечения инвестиций.