Стартап бывшего топ-менеджера ОпенЭйАй (OpenAI) Миры Мурати — Thinking Machines Lab — заключил новую многомиллиардную сделку на использование инфраструктуры искусственного интеллекта (AI) от Google Cloud, включая системы на базе последних чипов от Nvidia. Об этом стало известно в эксклюзивном материале TechCrunch.
Сумма соглашения составляет несколько миллиардов долларов, сообщил источник, знакомый с деталями. Договор включает доступ к новейшим AI-системам Google, построенным на чипах Nvidia GB300, а также к инфраструктурным сервисам для обучения и запуска моделей.
Google активно заключает подобные сделки с разработчиками ИИ, стремясь объединить облачные услуги с другими продуктами — хранилищем данных, движком Kubernetes и базой Spanner. Ранее в этом месяце компания Энтропик (Anthropic) подписала соглашение с Google и Broadcom на выделение нескольких гигаватт мощности тензорных процессорных блоков (TPU) — специализированных чипов Google для задач машинного обучения.
Однако конкуренция за лидеров рынка ИИ остаётся жёсткой. На этой неделе Энтропик также заключила сделку с Amazon, получив доступ до 5 гигаватт мощности для обучения и развёртывания своей модели Клод (Claude).
Первый шаг в облако
Ранее в этом году Thinking Machines уже сотрудничала с Nvidia — та сделала инвестиции в стартап. Но это первое соглашение лаборатории с провайдером облачных услуг. Оно не является эксклюзивным, что означает: стартап может использовать несколько облачных платформ. Тем не менее, сделка показывает, что Google стремится заранее закрепить за собой перспективные «пограничные» лаборатории.
Мурати покинула пост главного технолога в ОпенЭйАй и основала Thinking Machines в феврале 2025 года. Уже вскоре компания привлекла 2 миллиарда долларов на стартовом раунде при оценке в 12 миллиардов. До октября она держала свою деятельность в секрете, а затем представила первый продукт — Tinker.
Этот инструмент автоматизирует создание кастомных передовых моделей ИИ.
Что стоит за Tinker
Новая сделка с Google проливает свет на технологическую основу Tinker. В пресс-релизе Google сообщил, что его инфраструктура поддерживает задачи обучения с подкреплением, на которых построена архитектура Tinker. Этот метод — ключевой для недавних прорывов в DeepMind и ОпенЭйАй, — но требует огромных вычислительных ресурсов.
Thinking Machines стал одним из первых клиентов Google Cloud, получивших доступ к системам на GB300. По данным Google, они обеспечивают вдвое более высокую скорость обучения и обслуживания моделей по сравнению с предыдущим поколением GPU.
«Google Cloud запустил нас с рекордной скоростью и той надёжностью, которую мы требуем», — заявил Майл Отт, один из основателей Thinking Machines.