Три причины, почему важна новая модель DeepSeek V4

В пятницу китайская компания DeepSeek представила предварительную версию V4 — долгожданной новой флагманской модели. Главное нововведение — способность обрабатывать гораздо более длинные тексты, чем предыдущее поколение. Это стало возможным благодаря новой архитектуре, повышающей эффективность работы с большим объёмом данных. Как и предыдущие разработки DeepSeek, V4 остаётся открытым кодом: любой желающий может бесплатно скачать, использовать и модифицировать модель.

V4 — самый значительный релиз DeepSeek с момента выхода R1 в январе 2025 года. Тогда модель R1, обученная на ограниченных вычислительных мощностях, произвела фурор в мировом ИИ-сообществе благодаря высокой эффективности и производительности. Она превратила DeepSeek из малоизвестной лаборатории в ведущую ИИ-компанию Китая и спровоцировала волну открытых моделей у других китайских разработчиков.

После этого DeepSeek надолго замолчала. Но в начале этого месяца компания намекнула на грядущий анонс, добавив в онлайн-версию модели режимы «эксперт» и «флэш». Это вызвало слухи о масштабном обновлении.

Возвращение DeepSeek на передний край ИИ-разработок происходит на фоне серьёзных испытаний: уход ключевых сотрудников, задержки в запуске моделей и усиление давления со стороны как американских, так и китайских властей. Сможет ли V4 повторить успех R1? Вряд ли. Но вот три причины, почему этот релиз всё равно важен.

1. Это прорыв для открытых моделей

Как и R1, новая V4, по заявлению DeepSeek, по производительности сопоставима с лучшими коммерческими моделями, но стоит в разы дешевле. Это отличные новости для разработчиков и компаний: теперь доступ к передовым ИИ-возможностям не требует огромных затрат.

Модель представлена в двух версиях — V4-Pro и V4-Flash. Первая, более мощная, предназначена для сложных задач, включая программирование и работу агентов. Вторая — компактная и быстрая, подойдёт для задач, где важна скорость и низкая стоимость. Обе поддерживают режимы рассуждений: модель пошагово анализирует запрос и показывает ход своих «мыслей».

Цены впечатляют: V4-Pro стоит 1,74 доллара за миллион входных токенов и 3,48 — за выходные. Это копейки по сравнению с предложениями ОпенЭйАй (OpenAI) и Энтропик (Anthropic). V4-Flash ещё дешевле — около 0,14 и 0,28 доллара соответственно. Это делает её одной из самых экономичных топовых моделей на рынке.

По производительности V4 заметно превосходит R1 и уверенно конкурирует с ведущими закрытыми моделями. По данным компании, V4-Pro сравнима с Клод-Опус-4.6 (Claude-Opus-4.6), ЧатГПТ-5.4 (GPT-5.4) и Джемини-3.1 (Gemini-3.1). В тестах на программирование, математику и STEM-задачи она обгоняет другие открытые модели, включая Квен-3.5 (Qwen-3.5) от Alibaba и ГЛМ-5.1 (GLM-5.1) от Z.ai. Это делает V4 одной из сильнейших открытых моделей за всю историю.

DeepSeek утверждает, что V4-Pro также лидирует в тестах на агентное программирование и решение многошаговых задач. Её способности к письму и общие знания, по внутренним замерам компании, тоже находятся на вершине.

В техническом отчёте DeepSeek приводит данные опроса 85 опытных разработчиков: более 90% включили V4-Pro в число своих любимых моделей для кодинга. Компания также сообщила, что V4 оптимизирована под популярные фреймворки, такие как Клод Код (Claude Code), ОпенКлоу (OpenClaw) и КодБадди (CodeBuddy).

2. Прорыв в эффективности памяти

Одна из ключевых особенностей V4 — огромное окно контекста: модель может обрабатывать до 1 миллиона токенов за раз. Этого хватит, чтобы загрузить все три тома «Властелина колец» и «Хоббита» одновременно. Такой объём стал стандартом для всех сервисов DeepSeek и соответствует возможностям передовых версий Джемини и Клода.

Но важно не только что, а как это сделано. V4 кардинально переработала механизм внимания — ту часть модели, которая помогает ей понимать связи между фрагментами текста. Чем длиннее текст, тем дороже становятся эти вычисления, что тормозит работу.

DeepSeek решил эту проблему, сделав модель более избирательной. Вместо того чтобы одинаково «внимать» всему предыдущему тексту, V4 сжимает старую информацию, фокусируясь на самом актуальном, но сохраняя полную детализацию для ближайших фрагментов.

Это резко сокращает затраты. В контексте из 1 миллиона токенов V4-Pro использует всего 27% вычислительной мощности по сравнению с V3.2, а потребление памяти падает до 10%. Для V4-Flash показатели ещё лучше — 10% мощности и 7% памяти. На практике это означает, что можно создавать ИИ-ассистентов, способных работать с целыми кодовыми базами или архивами документов, не теряя контекст.

Интерес к длинному контексту у DeepSeek не появился внезапно. За последние полтора года компания опубликовала серию исследований о том, как ИИ «запоминает» информацию, экспериментируя с методами сжатия и математическими оптимизациями.

3. Первые шаги к независимости от Nvidia

V4 — первая модель DeepSeek, оптимизированная под китайские чипы, в частности под Huawei Ascend. Это делает релиз своего рода проверкой: сможет ли китайская ИИ-индустрия начать отрываться от зависимости от американского гиганта Nvidia?

О таком шаге ходили слухи. Ранее The Information сообщала, что DeepSeek не предоставила американским производителям чипов, таким как Nvidia и AMD, превью V4 — хотя это обычная практика для настройки железа под новые модели. Вместо этого доступ получили только китайские компании.

В пятницу Huawei объявила, что её суперузлы на базе серии Ascend 950 будут поддерживать V4. Это значит, что пользователи, желающие запускать собственные версии модели, смогут легко использовать чипы Huawei.

Как писал Reuters, китайские власти рекомендовали DeepSeek использовать чипы Huawei в процессе обучения. Это часть общей стратегии страны: ключевые отрасли должны развиваться с прицелом на технологическую независимость. Особенно остро этот вопрос стоит в ИИ. С 2022 года США ограничили поставки самых мощных чипов Nvidia в Китай, а позже — и урезанных версий для китайского рынка. В ответ Пекин ускорил развитие собственной ИИ-инфраструктуры — от чипов до программных платформ.

По данным источников, власти требуют от дата-центров и государственных проектов использовать больше отечественных чипов — вплоть до запретов на иностранные аналоги, квот на закупки и требований комбинировать Nvidia с китайскими чипами от Huawei и Cambricon.

Однако заменить Nvidia — не значит просто поменять плату. У американской компании огромное преимущество в программной экосистеме, на которую разработчики потратили годы. Переход на Ascend требует переписывания кода, адаптации инструментов и доказательства надёжности новых систем.

Полностью отказаться от Nvidia DeepSeek пока не удалось. Согласно техническому отчёту, китайские чипы используются только для вывода — когда модель выполняет задачи. Что касается обучения, профессор Тсингхуа Люй Чжюань сообщил MIT Technology Review, что адаптирована лишь часть процесса. Неясно, были ли ключевые функции для длинного контекста перенесены на отечественные чипы. По словам анонимных источников, китайские процессоры пока уступают Nvidia, но лучше подходят для вывода, чем для обучения.

DeepSeek связывает будущее ценообразование V4 с этим переходом: компания заявляет, что цены на V4-Pro могут значительно снизиться, когда суперузлы Huawei Ascend 950 пойдут в массовое производство во второй половине года.

Если это сработает, V4 может стать первым признаком того, что Китай успешно строит альтернативную ИИ-инфраструктуру.

Читать оригинал