Убийцы OpenAI, Google и Anthropic уже здесь

Убийцы OpenAI, Google и Anthropic уже здесь

Эпоха языковых моделей подходит к концу

У крупнейших игроков в области ИИ возникла проблема старения. Вместо поиска новых решений они продолжают наращивать вычислительную мощь — и это грубая ошибка.

OpenAI, Google, Anthropic и другие последние два года масштабируют вычисления на этапе инференса: цепочки рассуждений, деревья поиска, петли верификации, увеличение количества токенов во время работы. Этот подход помог устранить поверхностные галлюцинации — те, что бросаются в глаза на демонстрациях. Но он породил более серьёзные структурные ошибки, которые труднее обнаружить и гораздо опаснее.

Большинство упускает из виду главное: новые языковые модели звучат умнее, но не стали умнее. Они просто научились галлюцинировать с более изощрённой грамматикой. Данные это подтверждают: с каждым новым релизом уровень глубинных галлюцинаций растёт, а не снижается.

Одна из последних моделей OpenAI показала почти невероятные 50% галлюцинаций на внутреннем бенчмарке SimpleQA. Каждый второй ответ — выдумка. Внешняя связность речи — это маска. То, что скрыто за ней, становится всё хуже.

Компании, доминировавшие в первую эпоху ИИ, превращаются в динозавров. Они слишком заняты масштабированием, чтобы заметить: новые игроки уже поняли, что сама архитектура упёрлась в стену, которую вычислительной мощью не пробить.

Интеллект — это не статичная функция. Это непрерывно обновляемое вероятностное распределение, движущееся через структурированное пространство. В настоящей обучающейся системе пространство — не сцена для вычислений. Оно является частью самого сценария.

В спокойные времена это был бы вопрос технического долга — дорогого, но управляемого. Сейчас — не спокойные времена. Окно возможностей закрывается. И впервые за всё время по другую сторону стены стоят реальные альтернативы.

Новый класс ИИ-архитектур готов к перехвату всей отрасли. Не за счёт более крупных трансформеров. Не за счёт более долгого обучения. За счёт смены пространства, в котором происходят вычисления.

У этого подхода пока нет единого названия, но его основа очевидна: байесовский ИИ на основе метрики Фишера. Он заменяет плоскую евклидову геометрию, использовавшуюся нейросетями с 1980-х, на изогнутую информационно-теоретическую геометрию, в которой вероятностные распределения существуют реалистично. Это не улучшение старой парадигмы. Это устаревание математической поверхности, на которой она была построена.

Отложим технический жаргон и рассмотрим пример.

Представьте два дрона, летящих над одним и тем же ландшафтом. Первый работает на замороженном ИИ, обученном как языковая модель: он проложил маршрут один раз и больше его не обновляет. Для такого ИИ мир перестаёт меняться в момент окончания обучения. Второй — на байесовском «мозге»: каждое показание датчика перестраивает его карту в режиме реального времени.

У одного была карта. Другой строит карту на лету.

Неудивительно, что замороженные дроны разбиваются — их карты тоже заморожены.

Но именно вокруг этого несовершенного ИИ была построена вся индустрия.

Чат-боты отвечают на вопросы о мире, который уже изменился. Автономные системы ориентируются в городах, ставших другими после последнего обновления. Финансовые модели оценивают риски в условиях, которых не было в обучающих данных. Медицинские ИИ ставят диагнозы на основе устаревших знаний. Суть ясна: все эти области отчаянно нуждаются в ИИ, способном переобучаться в процессе работы.

Компании, строящие байесовскую альтернативу, не дорабатывают старую архитектуру. Они заменяют статичную карту чем-то живым. Их дроны не разбиваются, потому что они никогда не летели вслепую. Они строят рельеф по мере движения, перестраивая внутреннее пространство с каждым новым наблюдением — сгущая уверенность там, где свидетельства убедительны, и оставляя её размытой там, где мир неясен.

Это не техническое улучшение. Это разница между интеллектом, остающимся в контакте с реальностью, и интеллектом, устаревающим в момент её изменения.

Глубже в суть новых ИИ-движков

Вся крупная ИИ-индустрия по-прежнему работает, сохраняя параметрическое ядро замороженным во время инференса.

Это означает: выученные параметры не обновляются в реальном времени на основе взаимодействий. Да, вокруг этих замороженных весов добавляют слои извлечения, хранилища памяти, инструменты, агентные петли. Но снимите этот каркас — и вы увидите одно и то же: статичный набор параметров, не меняющийся с момента последнего переобучения.

Неопровержимое доказательство? Последние модели GPT описываются OpenAI как трансформеры, предобученные на предсказание следующего токена и затем дообученные — но не как системы, непрерывно переписывающие свои убеждения в процессе использования. Перечитайте это. Самая продвинутая ИИ-система на планете описана своими создателями как машина, которая обучается один раз, выходит в мир — и замирает.

Это не баг. Это архитектура.

Ловушка глубже, чем просто отсутствие обновлений.

Замороженная языковая модель не только отказывается учиться после обучения. Она существует в принципиально неверном пространстве: плоской геометрии, где нет способа отличить информативные параметры от шума.

Плоские архитектуры не могут сохранять структурные инварианты, необходимые для настоящего познания. Они не различают, когда два убеждения действительно близки, а когда лишь кажутся близкими из-за искажённой системы координат.

Когда замороженная модель выходит в производство, плохая геометрия фиксируется навсегда. Получается машина, блестяще интерполирующая внутри статистического ландшафта, но не способная пересмотреть ни одного убеждения в реальном времени, не сломав при этом что-то другое.

Всё ещё сомневаетесь? В сентябре 2025 года исследователи OpenAI опубликовали статью, в которой утверждают: языковые модели галлюцинируют, потому что обучение и оценка вознаграждают угадывание вместо признания неопределённости. На бенчмарке PersonQA их самые продвинутые модели показали 33% и 48% галлюцинаций. Каждый третий ответ — выдумка. У флагманской модели — почти каждый второй.

Это не косметический баг. Это структурный сбой. Модель оптимизирована на выдачу ответов — а не на понимание границы между тем, что она знает, и тем, чего не знает.

Именно эта граница критична для рассуждений в условиях неопределённости. А неопределённость требует кривизны — которую плоские архитектуры отбрасывают ещё до начала обучения.

Новые компании используют метрику, которая возвращает эту кривизну: метрику Фишера.

Красная линия на анимации — это то, как действуют все большие языковые модели: плоский евклидов градиентный спуск, где все направления в пространстве параметров считаются равнозначными. Это как проложить курс из Вены в Токио по плоской карте. Вы куда-нибудь попадёте. Только не в Токио.

Метрика Фишера говорит: карта изогнута. Некоторые направления высокоинформативны, другие — инертны. Сюн-ити Амари формализовал это в 1990-х как естественный градиент: F⁻¹∇L. Одна операция, превращающая плоский шаг в движение по поверхности. Зелёный путь — это она. Красный путь — то, что выпускает в мир вся индустрия.

Почему? Потому что матрица информации Фишера для модели с 70 миллиардами параметров содержит 4,9 × 10²¹ элементов. Её невозможно вычислить, хранить или обратить в реальных условиях. Крупные игроки выбрали масштаб вместо геометрии. Они — как красная линия: становятся длиннее и быстрее, но по-прежнему указывают не в ту сторону.

Вычисления во время инференса это не исправляют. Они лишь уводят дальше по той же плоской карте. Вы по-прежнему не ближе к Токио.

Герои новой ИИ-эпохи

Компании, ведущие этот переход, уже здесь. Они пытаются вырваться из парадигмы «заморозь и обслуживай». Они ставят неопределённость, пересмотр убеждений, причинность и структуру в центр архитектуры — а не как дополнения к замороженному генератору.

  • VERSES AI — ближе всех к полному воплощению идеи. Их движок основан на принципе свободной энергии Карла Фристона — той же математике, что описывает обучение биологических мозгов. Веса не замораживаются. Убеждения обновляются непрерывно. Модель AXIOM превзошла DreamerV3 от Google DeepMind на 60%, при этом была на 97% эффективнее и в 39 раз быстрее. Эта эффективность — следствие согласованности с геометрией, а не инженерного трюка.
  • causalLens строит причинный столп. Их модели кодируют вмешательства и контрфактуалы — а не просто корреляции. Причинные графы определяют семейства распределений, индексированные действиями, а не наблюдениями. Информация Фишера по этому семейству показывает, какие вмешательства важны. Их 50 миллионов долларов финансирования, партнёрство с Google Cloud и клиенты вроде Cisco и Scotiabank говорят: рынок уже принял решение.
  • Symbolica AI строит топологический столп. За ними 33 миллиона долларов от Khosla Ventures и команда PhD-математиков и бывших инженеров Tesla. Они применяют теорию категорий к машинному обучению и стали соавторами статьи с Google DeepMind, закладывающей теоретический фундамент. Теория категорий даёт композиционные гарантии: если два модуля корректны, их композиция тоже корректна. Там, где метрика Фишера даёт локальную кривизну, теория категорий обеспечивает глобальные структурные инварианты.
  • Layer 6 AI — доказательство, что математика работает в реальности. Приобрётённая TD Bank, она теперь обслуживает около 30 миллионов клиентов. Их модель CausalPFN занимает лучший средний ранг на бенчмарках причинного инференса, объединяя байесовский вывод с трансформерной амортизацией. На входе — сырые данные, на выходе — откалиброванные причинные эффекты с оценками неопределённости. Это байесовско-фишеровская математика в масштабах финансовой системы, где ошибка стоит денег.
  • Microsoft занимает особое положение. Infer.NET уже даёт правильное математическое основание, компилируя вероятностные программы в алгоритмы инференса. Облачная инфраструктура позволяет масштабировать это как никто другой. Основное ограничение — ручное создание моделей, которое мешает автоматизации. Но это инженерная, а не концептуальная проблема. Если Microsoft решит действовать, ей не нужно разворачиваться — нужно просто выпустить продукт.

Подводя итог

VERSES строит мозг. causalLens строит ответ на вопрос «почему». Symbolica строит структурный каркас. Layer 6 доказывает, что это работает с реальными клиентами и деньгами. Microsoft обладает облаком, чтобы развернуть всё это повсюду.

Никто пока не собрал все части вместе. Но части существуют — и ни одна из них не живёт в плоском пространстве.

Эти пять претендентов обладают тем, чего нет у OpenAI, Google и Anthropic — и не может появиться за счёт масштабирования. Их вычисления уже происходят на изогнутой поверхности. Четверо из них — тёмные лошадки: небольшие, недофинансированные, но математически правильные. Пятый — Microsoft, не тёмная лошадка, а дремлющий гигант с готовым фундаментом, ждущий повода проснуться.

Они не начинали в плоском пространстве и не прикручивали к нему исправления. Они начали с правильной геометрии. Всё, что они строят, растёт на математическом основании, которого плоские оптимизаторы не достигнут, сколько бы GPU ни добавляли. Потому что проблема никогда не была в вычислениях.

Проблема была в пространстве.

Читать оригинал