Компания DeepSeek выпустила предварительную версию своей новой большой языковой модели V4, которая позиционируется как высокопроизводительный и экономически эффективный конкурент западным аналогам.
Релиз состоялся вскоре после презентации GPT-5.5 от OpenAI. Модель сохраняет открытый исходный код, что дает разработчикам возможность локального развертывания и модификации алгоритма.
DeepSeek V4 представлена в двух версиях: Pro и Flash. Версия Pro обладает 1,6 триллионами параметров (из них 49 миллиардов активных) и, по заявлению разработчиков, демонстрирует результаты, сопоставимые с лучшими закрытыми моделями мира в области математики и написания кода. В части общих знаний о мире модель уступает только Gemini 3.1 Pro. Версия Flash, имея 284 миллиарда параметров, предлагает возможности рассуждения, близкие к старшей модели, но оптимизирована для быстрой работы в режиме агента.
Успех DeepSeek связывают с высокой эффективностью затрат: предыдущая модель R1 была обучена за два месяца, при этом расходы составили менее 6 млн долларов.
Обучение новой версии V4 может поддерживаться вычислительными кластерами Huawei на ускорителях Ascend. На данный момент нейросеть уже доступна пользователям в веб-интерфейсе чат-бота, приложении и через API для разработчиков.