В четверг OpenAI выпустила свою первую производственную модель искусственного интеллекта, которая будет работать на оборудовании сторонних производителей, развернув новую модель кодирования GPT-5.3-Codex-Spark на чипах Cerebras. Модель доставляет код со скоростью более 1000 токенов (кусков данных) в секунду, что, как сообщается, примерно в 15 раз быстрее, чем у ее предшественницы. Для сравнения: Claude Opus 4.6 от Anthropic в новом быстром режиме премиум-класса достигает скорости примерно в 2,5 раза выше стандартной скорости в 68,2 токена в секунду, хотя это более крупная и мощная модель, чем Spark.
«Cerebras был отличным инженерным партнером, и мы очень рады добавлению быстрого вывода в качестве новой возможности платформы», — заявил в своем заявлении Сачин Катти, руководитель отдела вычислений OpenAI.
Codex-Spark — это исследовательская предварительная версия, доступная подписчикам ChatGPT Pro (200 долларов США в месяц) через приложение Codex, интерфейс командной строки и расширение VS Code. OpenAI предоставляет доступ к API избранным партнерам по проектированию. Модель поставляется с контекстным окном на 128 000 токенов и обрабатывает текст только при запуске.
Релиз основан на полной модели GPT-5.3-Codex, которую OpenAI запустил ранее в этом месяце. Там, где полная модель решает сложные задачи агентного кодирования, OpenAI настроил Spark так, чтобы скорость превышала глубину знаний. OpenAI создала его как текстовую модель и настроила специально для кодирования, а не для задач общего назначения, которые решает более крупная версия GPT-5.3.
По данным OpenAI, в SWE-Bench Pro и Terminal-Bench 2.0, двух тестах для оценки навыков разработки программного обеспечения, Spark превосходит более старый GPT-5.1-Codex-mini, выполняя задачи за долю времени. Компания не предоставила независимое подтверждение этих цифр.
Как ни странно, скорость Кодекса была больным местом; Когда в декабре четыре агента по программированию искусственного интеллекта Arstested создавали клоны Minesweeper, Codex потребовалось примерно в два раза больше времени, чем Claude Code от Anthropic, чтобы создать работающую игру.
Гонка вооружений кодирующих агентов
Для контекста: 1000 токенов GPT-5.3-Codex-Spark в секунду представляют собой довольно резкий скачок по сравнению со всем, что OpenAI ранее обслуживало через свою собственную инфраструктуру. Согласно независимым тестам Искусственного анализа, самые быстрые модели OpenAI на оборудовании Nvidia превосходят эту отметку значительно ниже: GPT-4 обеспечивает примерно 147 токенов в секунду, o3-minihits — около 167, а мини-частоты GPT-4o — около 52.