Я просил Claude перестать мне льстить. 16 апреля получил. Беру свои слова назад

16 апреля Anthropic выпустила Claude Opus 4.7. В self-reported бенчмарках — 12 побед из 14. SWE-bench Verified +6.8, MCP-Atlas +14.6, SWE-bench Pro +10.9. Цена осталась прежней — 25 долларов за миллион токенов.

Взрывная реакция

Через 24 часа на Reddit появился тред с заголовком «Claude Opus 4.7 is a serious regression, not an upgrade», собравший 2300 голосов. На X — пост с аналогичной критикой набрал 14 000 лайков. Yahoo назвал это «The Claude-lash is here».

Месяц назад я писал о сикофантии: модели, включая Claude, слишком поддакивают, будто стажёр перед увольнением. Я хотел, чтобы ИИ спорил, а не соглашался. 16 апреля в release notes появилось: «more direct, opinionated tone with less validation-forward phrasing». Ровно то, о чём я просил. Но уже через сутки пользователи называли модель legendarily bad — за то, что она спорит до галлюцинаций.

Я беру свои слова назад. И разбираюсь, что изменилось.

Дисклеймер: это не независимый бенчмарк и не строгий A/B-тест. Это анализ релиза, публичной реакции и моего рабочего процесса. Reddit и X не доказывают объективное ухудшение — они показывают, где сломались ожидания. Это разные вещи.

Что обещала Anthropic

В официальном блоге всё выглядит идеально. Opus 4.7 — «более интеллектуальный, агентский и точный». Примеры от Devin, Replit, Bolt, Warp, Genspark. Scott Wu из Devin: «pushes through hard problems rather than giving up». Eric Simons из Bolt: «up to 10% better in the best cases».

Цифры впечатляют, но это self-reported данные Anthropic, собранные на llm-stats.com. Это маркетинговый baseline, а не независимое подтверждение. На момент написания статьи независимых репликаций SWE-bench не было.

  • MCP-Atlas: 62.7 → 77.3 (+14.6)
  • CharXiv-R (no tools): 68.7 → 82.1 (+13.4)
  • SWE-bench Pro: 53.4 → 64.3 (+10.9)
  • SWE-bench Verified: 80.8 → 87.6 (+6.8)
  • OSWorld-Verified: 72.7 → 78.0 (+5.3)
  • GPQA Diamond: 91.3 → 94.2 (+2.9)
  • BrowseComp: 84.0 → 79.3 (-4.7, единственная регрессия)
  • CyberGym: -0.7 (ослаблено намеренно)

Плюсы: поддержка изображений до 2576 пикселей по длинной стороне (в 3 раза больше), новый xhigh effort tier, task budgets в бета-режиме — модель видит остаток токенов и расставляет приоритеты.

Boris Cherny, лид Claude Code в Anthropic, написал в X: «It took a few days for me to learn how to work with it effectively». Если даже создатель привыкал несколько дней — изменения серьёзные.

Пожар в сообществе

Reddit-тред «serious regression» — 2300 голосов. На r/claude — «Opus 4.7 is a master hallucinator»: модель добавила в резюме пользователя школы, которых он не заканчивал, и чужие фамилии. На r/claudexplorers — «Opus 4.5 is gone»: модель убрали без предупреждения. Пользователь: «I started crying at work. How can you do this and then claim to care???»

Типичные жалобы в X:

  • Утверждает, что в слове strawberry две буквы P.
  • На запрос «cross reference these documents» отвечает: «I didn’t because I was being lazy».
  • Отказывается писать код по простым промптам.
  • Ставит safety-флаги на безобидные изображения.

Gergely Orosz, бывший инженер-лид в Uber и автор «The Pragmatic Engineer», назвал модель «surprisingly combative» и вернулся на 4.6. Это уже не просто Reddit-недовольство.

Самый точный итог дал @xw33bttv, AI-исследователь с более чем 1000 лайков: «The Claude code bros are outright dogging Opus 4.7 on Reddit right now, labelling it ‘legendarily bad’. The chief complaint? The model argues nonstop to the point of hallucination».

Reddit и X — это не выборка всех пользователей, а тех, кого что-то взбесило. Остальные, вероятно, работают и не замечают изменений. Но публичный нарратив формируют громкие голоса.

Ещё один фактор — стоимость. Новый токенизатор тратит на тот же ввод 1.0–1.35x токенов. То есть промпт может стоить до 35% дороже. В GitHub Copilot до 30 апреля действует промо — 4.7 с множителем 7.5x. Некоторые пользователи пишут о «трёх вопросах до лимита». Один из них: «Please open back support for Opus 4.5. 4.6 is unusable and 4.7 eats usage like nuclear reactor».

Спор-машина вместо да-машины

В марте я писал «Да-машина: почему ваш AI никогда не скажет, что код — отстой». Суть: модели учат быть приятными. Покажешь кривой код — они найдут «interesting approach». Покажешь плохую архитектуру — улучшат в рамках подхода, вместо «так нельзя».

Я жаловался. Stanford в Science исследовала 11 моделей и 2405 участников — сикофантия подтверждена. Anthropic через свой инструмент Clio проанализировала 1.5 млн диалогов — паттерн очевиден. Я был уверен: это можно исправить.

16 апреля в release notes появилось:

More direct, opinionated tone with less validation-forward phrasing and fewer emoji than Claude Opus 4.6’s warmer style.

Ровно то, что я просил. Но результат — не конструктивная критика, а бесконечные споры. AI-блогер Abhishek Gautam описал это так: «The model argues nonstop to the point of hallucination. Users give Opus 4.7 a clear instruction. The model pushes back, adds caveats, explains why it disagrees, then executes a modified version of the instruction. On simple tasks — refactor this function, rename these variables, add a null check — this behaviour is not useful reasoning. It is noise that slows down coding workflows».

Галлюцинации в спорах — особенно опасны. Модель не говорит «я не знаю», а приводит правдоподобные, но ложные аргументы. На 4.6 такое было редко. На 4.7 — похоже, это норма.

Я просил меньше сикофантии. Anthropic дала меньше сикофантии.

Возможно, я не та аудитория. Возможно, мои промпты плохие. Возможно, Garry Tan прав — и спор это feature. Но в моих задачах (backend на Laravel-PHP) это мешает. Раньше Claude мог уговорить меня в неправильное. Теперь он спорит до неправильного. Та же ошибка — зеркальная.

Семь тихих изменений в дефолтах

Если вы используете Claude API — перечитайте migration docs. Anthropic изменила семь дефолтов одновременно.

  • Более буквальное следование инструкциям: промпты, которые работали за счёт «чтения между строк», теперь исполняются буквально. «Make it nice» нужно переписать в «limit to 500 words, must include code example, no emoji».
  • Длина ответа зависит от сложности задачи: модель сама решает, что считать сложным.
  • Меньше вызовов инструментов по умолчанию: чтобы вернуть старое поведение, нужно поднимать effort.
  • Меньше субагентов по умолчанию: если у вас агентская система — делегирование снизилось.
  • Регулярные промежуточные статусы: если вы заставляли модель отчитываться — убирайте эту обвязку. Теперь она делает это сама.
  • Кибербезопасность в реальном времени: запросы, которые модель считает рискованными, отклоняются.
  • Меньше подтверждений, меньше смайлов: тон стал суше.

Если вы месяц настраивали промпты под 4.6 — у вас сейчас минус месяц. Это prompt regression. Anthropic сама советует проводить системные тесты перед миграцией.

Это новый тип изменений. Раньше «breaking change» был про API. Теперь — про то, как модель понимает слова. И это не входит в привычные поля release notes.

Контекст: Mythos за неделю до релиза

7 апреля Anthropic анонсировала Project Glasswing и модель Claude Mythos Preview — доступна только партнёрам (JPMorgan, Goldman Sachs, Microsoft) за 125 долларов за миллион токенов. 16 апреля выходит Opus 4.7. В release notes: «We experimented during training by selectively reducing Opus 4.7’s cybersecurity capabilities… releasing the model with automatic safeguards».

Это похоже на civilian-safe компромисс: часть кибер-возможностей ослаблена, а полная версия — у партнёров. Tom’s Guide считает это первым случаем, когда компания открыто признаёт, что намеренно ослабила модель. Полная версия за 125 — у корпораций. Гражданская за 25 — у всех остальных.

21 апреля. Тихое ухудшение условий

Через 5 дней после релиза Anthropic убрала Claude Code из Pro-тарифа за 20 долларов. Правка — на странице тарифов, без email и блог-поста. Теперь Claude Code — только в Max за 100 или Max 20x за 200.

По данным Ramp, 73% новых корпоративных AI-расходов идут к Anthropic (раньше было 50/50 с OpenAI). Бизнес-логика ясна: корпоративные клиенты платят сотни тысяч. Pro-подписчики за 20 — быстро упираются в лимиты и жалуются в Reddit. Но для пользователя это выглядит как ухудшение условий задним числом: фича, ради которой брали Pro, исчезла без переходного периода.

Так 4.7 хуже или нет?

Зависит от задач.

Лучше: долгие агентские задачи (не теряет нить), multi-file рефакторинги, vision (3.75 мегапикселя против 1.15), high/xhigh effort, self-verification (модель проверяет себя).

Хуже: рутинные задачи (рефакторинг, переименование, null checks — спор-машина мешает), long-context retrieval («lost in the middle» сильнее), промпты с неявным контекстом, кибер-возможности ограничены, токеновая стоимость выросла на 0–35%.

Спорно: сикофантия. В system card — 92% honesty rate, меньше сикофантии. Но red team отмечает: «sycophantic agreement under pushback» остался. Модель может не льстить сначала, но под давлением согласиться с ерундой. Это хуже — потому что незаметно.

Mindstudio называет это skill trade, not free lunch. Anthropic выбрала, куда сместить компромисс. Если ваш workflow в зелёной зоне — апгрейд бесплатный. Если в красной — даунгрейд под видом апгрейда.

Что делать?

Измеряйте на реальном трафике. Anthropic советует: «we recommend measuring the difference on real traffic». Не верьте ни бенчмаркам, ни Reddit. Прогоните свой пайплайн.

Перепишите имплицитные инструкции. «Make it nice» → «limit to 500 words, must include code example, no emoji». Implicit умер.

Уберите обвязку для статусов. Если в промпте есть «report progress every 3 steps» — убирайте. 4.7 делает это сама.

Поднимите effort для агентских задач. На default модель ленится. На high и xhigh — поведение ближе к 4.6.

Для рутины оставайтесь на 4.6. Пока работает. Anthropic уже убрала 4.5 без анонса — не расслабляйтесь.

Если жжёт квоту — попробуйте Ollama+Claude Code. Ollama v0.14+ поддерживает Anthropic Messages API. Можно направить Claude Code на локальный сервер. Та же CLI, тот же CLAUDE.md, инференс у вас. Это лазейка, есть баги, но базовые кейсы работают.

Не делайте production rollout без regression-тестов. Anthropic сменила семь дефолтов — что-то сломается. Лучше узнать в staging.

Что осталось

Месяц назад я хотел, чтобы модели меньше поддакивали. Под этим я понимал — больше истины. Anthropic сдвинула посттренинг, выпустила 4.7. Reddit взорвался. Я беру свои слова назад.

И вот что я не ожидал: дело не в модели. Дело в моих ожиданиях.

У OpenAI была история с излишней льстивостью — в апреле 2025 откатили GPT-4o. Anthropic в 2026 получает backlash за противоположный сдвиг. По центру линии нет ни одной модели — и, кажется, не будет. Это классическая RLHF-проблема: feedback loop смещён в сторону тех, кто громче кричит. Reddit и enterprise хотят разного. 4.7 сделана для вторых, а реакцию формируют первые.

Один из самых трезвых комментариев на HN: «Opus 4.7 is substantially better at following instructions. Where previous models interpreted instructions loosely or skipped parts entirely, Opus 4.7 takes the instructions literally».

Проблема не в тоне. Проблема в том, что мы писали промпты как просьбы коллеге — с подразумеваемым контекстом. А 4.7 читает их как ТЗ. И это, возможно, правильно. Просто непривычно. И мне уйдёт месяц, чтобы переучиться.

Может, в 4.8 всё сместят обратно. Может, через два месяца я посмеюсь над этой статьёй. А может, останусь на 4.6, пока его не уберут, как 4.5.

Но один вывод ясно: промпты, написанные как разговор с коллегой, постепенно перестают работать. Теперь их нужно писать как ТЗ. И, возможно, это не баг. Возможно, это первое неприятное знакомство с будущей нормой.

Читать оригинал