F

DeepSeek V4: дешёвый китайский ИИ, сравнимый с лучшими мировыми моделями

DeepSeek (2023) ворвалась в центр внимания в 2024 году с бесплатной моделью V3. Алгоритм удивил экономикой: затраты на его создание были несопоставимо ниже, чем у гигантов вроде OpenAI или Google.

В январе 2025 года компания представила R1. Модель достигла результатов лидеров рынка, используя всего два месяца работы и менее $6 млн на слабых GPU Nvidia. Это вызвало тревогу инвесторов: американское технологическое доминирование под вопросом, а гигантские бюджеты на инфраструктуру — устаревшая модель.

Спустя год после R1 вышла версия V4. Релиз совпал с анонсом OpenAI GPT-5.5. Главный вопрос: на чем обучали? Huawei подтвердил поддержку кластеров Ascend, но доля их участия в обучении остается неясной.

Модели доступны в веб-интерфейсе и API. Режим Instant работает на V4-Flash, а Expert — на V4-Pro. Исходный код открыт: разработчики могут развернуть нейросеть локально и доработать её. Производительность оценивается выше китайских аналогов, особенно в логике и работе с данными. Версия оптимизирована для агентов OpenClaw и Claude Code.

Варианты модели:

  • DeepSeek-V4-Pro: 1,6 трлн параметров (49 млрд активных). Производительность сравнима с лучшими закрытыми моделями мира. Лидер в математике и коде, уступает только Gemini 3.1 Pro по общемировым знаниям.

  • DeepSeek-V4-Flash: 284 млрд параметров (13 млрд активных). Предоставляет рассуждения уровня Pro и решает простые агентные задачи на том же уровне.

Аналитик MorningStar Айвен Су сомневается, что V4 повторит успех R1. Рынок уже усвоил факт дешевизны китайского ИИ. Теперь другие открытые модели из КНР становятся прямыми конкурентами. Такая динамика раньше не наблюдалась, что говорит о резком росте внутренней конкуренции в Китае.

источник

0 комментариев

Редактор комментария
Пока нет комментариев
Станьте первым, кто оставит мнение на этот топик