DeepSeek выпустил V4 — модель с открытыми весами, сопоставимую по качеству с передовыми закрытыми моделями, такими как Opus 4.7 и GPT-5.5, но при этом в разы дешевле. Ранее R1 вызвал падение рынка на 20% за одну ночь. V4 может оказать ещё более сильное влияние.
Характеристики моделей
DeepSeek V4 Pro — 1,6 триллиона параметров, архитектура mixture of experts (MoE), 49 миллиардов активных параметров и контекст до 1 миллиона токенов. V4 Flash — более компактная версия: 284 миллиарда параметров суммарно, 13 миллиардов активных. Обе модели обучены на ~33 триллионах токенов.
По результатам на бенчмарках — MMLU Pro, GPQA Diamond, SWE-bench Verified, агентских задачах — V4 демонстрирует производительность, близкую к Opus 4.7 и GPT-5.5. Отставание минимально.
Экономическая угроза для США
Большинству компаний не нужны самые мощные модели. Им важна эффективность. GPT-5.5 и Opus 4.7 стоят около $30 за миллион выходных токенов. DeepSeek V4 — в разы дешевле, открыт, его можно дообучать, развертывать локально и полностью контролировать.
Это меняет экономическую математику. Корпоративный спрос может массово перейти на китайский open source, что поставит под угрозу возврат триллионных инвестиций в ИИ-инфраструктуру США.
Геополитические риски
Раньше Дженсен Хуанг считал, что даже если Китай создаёт свои модели, он будет использовать американские GPU — NVIDIA. Теперь ситуация обратная: американские компании могут строить стратегии на китайских open-source-моделях. Это создаёт зависимость. Если доступ будет ограничен или архитектура изменится — позиции США окажутся уязвимыми.
Экспортный контроль: работает ли?
Частично да, частично нет. DeepSeek признаёт, что вычислительные мощности для Pro-версии ограничены до второго полугодия, пока не будут готовы supernodes. Однако именно это ограничение вынудило команду оптимизировать алгоритмы. В результате V4 работает эффективно даже на ограниченных GPU — в разы дешевле аналогов.
Дистилляция и обвинения в краже
Anthropic и правительство США утверждают, что китайские компании ведут кампании по дистилляции американских моделей. Но данные противоречивы: у DeepSeek в отчёте указано всего 150 000 диалогов, у других — миллионы. При этом DeepSeek опубликовал полный код и подробный whitepaper. Качество модели объяснить дистилляцией сложно — цифры не сходятся.
Культурное влияние
Социальные сети и цифровые платформы формировали глобальный нарратив из США. Если мир перейдёт на китайские модели — даже open source — в них уже заложены определённые культурные установки. Их можно модифицировать, но базовые паттерны поведения моделей останутся.
Что дальше?
США нужно активнее развивать open source. Американские лидеры — OpenAI, Anthropic — в основном закрытые. Google выпускает открытые модели, но не уровня V4. Даже если закрытость сохранится, цены должны снижаться быстрее. Иначе корпоративные клиенты выберут более выгодные альтернативы.
DeepSeek не превзошёл США. Но он предложил достаточно качественную, бесплатную и гибкую альтернативу. И многие американские компании её примут.