20 марта 2026 года разработчик по имени Финн тестирует API Cursor. Он не ищет разоблачений — просто дебажит. Но в ответе видит неожиданный идентификатор модели: kimi-k2p5-rl-0317-s515-fast.
Он делится этим в твиттере. Пост набирает 444 000 просмотров.
Самый тщательно срежиссированный запуск года — с кастомными бенчмарками, графиками эффективности по Парето и агрессивной ценовой стратегией — рушится из-за одной строки, которую забыли переименовать.
Акт 1: подготовка
За восемь дней до анонса Composer 2 команда Cursor опубликовала детальный пост о CursorBench — своей внутренней системе оценки кодинг-агентов. Это действительно инновационный подход.
Задачи берутся из реальных сессий через систему Cursor Blame. Промпты намеренно неоднозначные — как в реальной разработке. Масштаб задач вырос вдвое. Метрика — эффективность по токенам. Оценка ведётся по четырём измерениям, а не просто «прошёл/не прошёл».
Инженерия модели тоже впечатляет. Cursor внедрил «компактификацию в цикле RL»: модель сама приостанавливает генерацию и сжимает контекст до ~1 000 токенов, когда достигает лимита. Шаг суммаризации включён в цепочку вознаграждения, поэтому модель учится сохранять важное.
Это серьёзная работа.
19 марта выходит Composer 2. Блогпост — отполированный. Графики — чёткие. Цены — шокирующие: $0,50 за миллион входных токенов, $2,50 за выходные. На 86% дешевле предыдущей версии и в разы — конкурентов.
На Terminal-Bench 2.0 Composer 2 обгоняет Claude Opus 4.6, уступает только GPT-5.4. Но ценовая эффективность перевешивает.
В блогпосте говорится: улучшения — за счёт «первого прогона дообучения», который укрепил основу для RL. Базовая модель не названа.
График Парето размещает Composer 2 в идеальном квадранте: высокая производительность, низкая стоимость. Сравнение — с GPT-5.4, Claude Opus 4.6 и прошлыми версиями Cursor.
Одна модель отсутствует везде: Kimi K2.5 — та, на которой построена Composer 2.
Хореография безупречна: кастомный бенчмарк, аргумент эффективности, нарратив ценовой атаки, полное молчание о базовой модели.
Всё было срежиссировано. Всё, кроме ответа API.
Акт 2: строка, конфронтация и разворот
Менее 24 часа — и нарратив рушится.
Финн видит в API-ответе: accounts/anysphere/models/kimi-k2p5-rl-0317-s515-fast.
Расшифровка: kimi-k2p5 — Kimi K2.5 от Moonshot AI. rl — обучение с подкреплением. 0317 — 17 марта 2026, дата обучения. s515 — внутренний ID эксперимента. fast — оптимизированная версия для инференса.
Вся история модели — в одной строке.
Финн комментирует: «хотя бы переименуйте model ID».
Твит взрывается. Начинается эскалация.
Moonshot реагирует (фаза 1: удивление)
Юлунь Ду, руководитель предобучения в Moonshot AI, анализирует токенизатор Composer 2. Результат: он идентичен Kimi. Вывод: «почти наверняка это дообученная версия нашей модели».
Он отмечает сооснователя Cursor Майкла Труэлла и спрашивает: почему не соблюдена лицензия? Почему нет упоминания Kimi?
Двое других сотрудников Moonshot подтверждают связь. Позже удаляют посты. Видимо, внутренняя коммуникация не успела за внешней.
Лицензионная проблема
Kimi K2.5 распространяется под модифицированной MIT-лицензией. Есть одно условие:
Если ПО (или производные) используется в коммерческих продуктах с более чем 100 млн активных пользователей в месяц или более чем $20 млн выручки в месяц — нужно отображать «Kimi K2.5» в интерфейсе.
Cursor: годовая выручка — более $2 млрд. Месячная — ~$167 млн. Порог — $20 млн. Превышение — в 8 раз.
«Kimi K2.5» в интерфейсе Cursor — нигде.
Cursor реагирует (постепенно)
Сначала — тишина. Потом первое признание. Прогрессия ясна.
Первое: «Да, Composer 2 начал с опенсорсной базы!» — с акцентом на то, что только четверть вычислений пришлось на базовую модель.
Потом: «Раз людям так нужно, чтобы я это сказал: KIMI K2.5». С двумя восклицательными знаками. И ссылкой на «партнёрство по инференсу» с Fireworks AI.
Затем — техническая защита: RL — реальная работа, дообучение — реальное, оценки сильно отличаются. Возможно, всё правда. Но ни одно из этого не объясняет, почему базовая модель не была названа.
Могли бы сказать: «Мы взяли лучшую опенсорсную модель для кодинга и сделали её радикально лучше». Это сильный нарратив.
Вместо этого — умолчание. Оно породило разрыв доверия, который интернет заполнил худшей возможной интерпретацией.
Moonshot реагирует (фаза 2: разворот)
И тут — поворот.
Официальный аккаунт Kimi публикует поздравление:
«Поздравляем команду Cursor с запуском Composer 2! Мы гордимся, что Kimi K2.5 стал основой».
Подтверждается: Cursor использует Kimi K2.5 через Fireworks AI в рамках авторизованного коммерческого партнёрства.
Сделка была. Руководитель предобучения Moonshot о ней не знал.
От обвинений до поздравлений — менее 24 часов. Драма — реальная. Бизнес — в порядке. Коммуникация — нет.
Акт 3: большая картина
Забытый model ID — хорошая история. Но не главная.
Главная: этот паттерн повсюду. Cursor просто попался.
Windsurf дообучает GLM-4.6 от Zhipu AI. Vercel интегрировал её в API. Cerebras продвигает GLM-4.6 как основную модель. Together AI развернул Qwen-3-Coder от Alibaba.
Цифры подтверждают: на OpenRouter четыре из пяти самых используемых моделей — китайские. В начале марта 2026-го потребление китайских моделей превысило американское две недели подряд.
Чамат Палихапитийя (Social Capital): «Мы начали использовать Kimi-K2 на Groq. OpenAI и Anthropic — хороши, но слишком дороги».
Производительность плюс стоимость. Вот и всё.
Почему никто не хочет говорить об этом вслух
Если логика так проста, почему компании скрывают базовые модели? Три причины:
- Оптика для инвесторов. Cursor оценивается в $29,3 млрд. Часть оценки — нарратив о проприетарных технологиях. «Мы улучшили опенсорсную модель» — это не то же самое, что «мы построили свою».
- Геополитическая неловкость. «Работает на китайском ИИ» — не самый удобный тезис для американской компании в нынешнем климате.
- Сдвиг ценностного предложения. Если база — опенсорс, преимущество не в модели. Оно в UX, агентных рабочих процессах, инструментах, RL-пайплайнах. Это сложнее объяснить.
Ирония в том, что прозрачность укрепила бы Cursor. «Мы взяли лучшую открытую модель для кодинга, вложили 75% бюджета в дообучение и RL, и создали продукт, который обгоняет Claude Opus 4.6 за десятую часть цены». Это история, достойная рассказа.
Три вывода
- CursorBench и RL-инновации — реальны. Оценка по эффективности, компактификация в цикле обучения, снижение потерь контекста — настоящий вклад. Cursor было чем гордиться, не скрывая основу.
- Разрыв в атрибуции — самострел. Партнёрство было легальным. Инженерия добавила ценность. Драма возникла из-за расхождения между маркетингом и реальностью.
- Это паттерн, а не исключение. Китайские опенсорсные модели теперь питают ключевые инструменты Кремниевой долины. Те, кто будет честен — получат доверие. Те, кто прячет — рискуют быть разоблачёнными следующим разработчиком с дебаггером.
Может быть, настоящий бенчмарк — не Terminal-Bench и не CursorBench. А то, переживёт ли ваш идентификатор модели любопытного разработчика в среду вечером.