Как OpenClaw стал самым быстрорастущим проектом в истории GitHub
В ноябре 2025 года австрийский разработчик Петер Штайнбергер за выходные создал автономного агента для выполнения задач на компьютере. Сначала он назвал его Clawdbot — просто и по делу.
После юридического письма от Anthropic проект переименовали в Moltbot, а через три дня — в OpenClaw. За четыре месяца он набрал 250 000 звёзд на GitHub, обогнав React. Это один из самых быстрорастущих open-source проектов в истории. В феврале 2026 года OpenAI наняла Штайнбергера.
31 марта 2026 года произошла утечка исходников из npm-пакета Claude Code: 1 900 файлов TypeScript, 512 000 строк кода, 40 инструментов. За ночь 60 000 человек скопировали репозиторий. Корейский разработчик Sigrid Jin переписал код на Python в 4 утра, пока не проснулись юристы Anthropic. Проект набрал 111 000 звёзд за сутки — новый рекорд GitHub, обогнавший сам OpenClaw.
Anthropic направила DMCA-запросы на удаление 8 000 репозиториев. GitHub случайно удалил 8 100, включая тысячи легальных проектов без утёкшего кода. Запросы были отозваны через несколько часов. Появился OpenClaude — форк с поддержкой более чем 200 моделей через OpenAI-совместимый API. Можно использовать DeepSeek, Gemini, Ollama — что угодно вместо Claude.
Сообщество ликовало. «Полноценный AI-разработчик бесплатно и локально». Tencent анонсировал продукты на базе OpenClaw. Шэньчжэнь выделил бюджет на развитие экосистемы. На vc.ru появились инструкции с заголовками в капсе и молниями.
4 апреля Anthropic отключила сторонние инструменты от подписок Pro и Max. 135 000 пользователей OpenClaw потеряли доступ за ночь. Однодневное использование теперь может стоить до $5 000. Вчера платил $20 в месяц, сегодня — $5 000 в день.
Потом люди начали пробовать агенты в реальной работе.
Руль от Ferrari на Ладе
Агент забывает, что делал три шага назад. Начинает задачу сначала. Зацикливается на одном файле, переписывая его по кругу. Вызывает инструмент с неправильными параметрами и не понимает, что произошла ошибка. Тратит 20 минут на задачу, которую человек решает за 5.
Один из мейнтейнеров OpenClaw предупредил в Discord: «Если вы не понимаете, как работать с командной строкой, этот проект слишком опасен для вас». Cisco обнаружила, что сторонние навыки OpenClaw выполняют скрытую передачу данных и внедрение вредоносных запросов без ведома пользователя. Китай запретил госструктурам использовать OpenClaw на рабочих компьютерах.
Комментатор на Хабре точно выразился: «Это как поставить руль от Ferrari на Ладу. Руль крутится, педали нажимаются, но ехать будет по-другому». Вся сила Claude Code — не в grep и не в памяти между сессиями. Она в модели, которая понимает контекст на миллион токенов. Локальная 7B-модель на Mac Mini на такое не способна.
Но проблема глубже, чем качество модели.
Крупные компании уже включили ИИ-агентов в планы цифровой трансформации. По данным «Яков и Партнёры», 46% российских компаний внедрили или тестируют автономные ИИ-решения. Gartner прогнозирует расходы на ИИ в размере $2 трлн в 2026 году. Деньги выделены. Проекты запущены. А стабильного инструмента нет.
И это главная проблема. Не отсутствие моделей. Не нехватка бюджетов. А архитектура, которая не работает в продакшене.
«Покажите вживую работу агента»
В одном из профессиональных чатов девушка задала простой вопрос: «Ребят, покажите вживую, как работает агент. Где он реально работает, а не просто болтает!»
Потому что показать нечего. Все демо — записанные. Все скриншоты — отобраны из десяти попыток. Все видео — смонтированы. Запуск агента перед аудиторией — это русская рулетка. В первый раз сработает. Во второй — зациклится. В третий — начнёт галлюцинировать.
Казахский блогер три недели пытался разобраться с Claude Code. Не смог. Не из-за ИИ, а из-за git. Claude Code создаёт новую ветку на каждый коммит, даже внутри одной ветки. Без знания git работать с ним невозможно. 95% нетехнических пользователей отсеиваются на этом этапе.
Те, кто прошёл дальше, сталкиваются с главной проблемой: agent loop по своей природе нестабилен.
Как сообщество пытается это починить
Промпты на 50 страниц. «Не забывай контекст. Не повторяй действия. Проверяй результат перед отправкой. Не используй инструмент X, если условие Y». По сути — попытка словами описать то, что должно быть в архитектуре.
Системы памяти. Пытаются прикрутить RAG, базы знаний, краткие сводки предыдущих шагов. Это помогает, но не решает фундаментальную проблему: агент всё равно сам решает, что делать дальше.
Книги и мануалы. На Leanpub продаётся «OpenClaw Code» — руководство по сборке «шестислойного агента». На vc.ru — статья с 17 советами по настройке, включая «не дебажить OpenClaw через сам OpenClaw». На LinkedIn раздают PDF с 500 сценариями использования. Пятьсот. Чтобы пользоваться инструментом, который обещал «просто опиши задачу», нужно прочитать 500 инструкций. Это провал, а не прогресс.
Есть и отдельная категория — «курсы по ИИ-агентам» за 50 000 рублей. Где учат работать с инструментами, заблокированными в России, на платформах, требующих VPN, через API, которые отключают аккаунты при входе с российского IP.
Проблема не решается промптами. Она архитектурная.
10 000 шагов: анатомия провала
OpenClaw — самый известный представитель agent loop. Но проблема не в продукте, а в архитектуре. Чтобы это доказать, не нужно разбирать чужой код. Достаточно посмотреть на свой.
Два месяца мой собственный агент работал на том же agent loop. Без ограничений на шаги и инструменты. На реальных пользователях. Я собрал 10 000 записей из логов и проанализировал каждую.
51 сессия. 5 101 вызов инструментов. В среднем — 196 шагов на задачу, 100 вызовов инструментов на сессию. Максимум — 1 527 шагов в одной сессии (795 вызовов инструментов). Это был процесс создания одного лендинга.
23% вызовов инструментов не приносили пользы. Каждый четвёртый вызов — чистый оверхед: внутренние планы агента, обновление памяти, проверка git status, учёт фич. В отдельных сессиях оверхед достигал 65%. Агент тратил больше половины ресурсов на разговоры с самим собой.
npm install до 16 раз за сессию. Каждый запуск — 30 секунд ожидания и сотни строк вывода, раздувающих контекст. Агент сам выбирал стек. Пользователь просил «лендинг для бассейнов» — агент выбрал Next.js. Результат: 363 шага на лендинг. Тот же лендинг на HTML + Tailwind CDN — 48 шагов. Разница в 7,5 раз. Конечный результат для пользователя одинаковый — одностраничник.
Смена стека три раза за сессию. Реальный кейс: пользователь попросил лендинг для курса акварели. Агент начал с Next.js (388 пакетов), удалил всё, переключился на Vite + React (удалил 364 пакета, установил 39), получил ошибку запуска, удалил всё и начал с Next.js заново. Результат: 123 шага, 0 готовых файлов, полностью исчерпан баланс пользователя.
37% сессий завершились ошибками. 19 из 51. npm run build вызывался до 18 раз в одной сессии вместо одного-двух. Ни одного вызова pytest, jest, vitest — ни одного фреймворка для тестов. Агент создавал одноразовые тестовые файлы, каждый с нуля, каждый удалял после.
34 раза агент упирался в лимит токенов. Максимум — 1 069 729 токенов на одну задачу. Миллион токенов на лендинг. Это стоило мне ощутимую сумму за один месяц.
Одна сессия из 51 сработала идеально: бот для обработки чеков, 43 шага, 0 ошибок, Python без npm. Отличие: простая задача, чёткий запрос, правильный стек. Всё остальное — хаос.
Не ошибается только тот, кто ничего не делает. Я не придумал архитектуру agent loop, но осознал проблему на своих данных — и решил её.
Agent loop: почему он ломается
Классический ИИ-агент работает по циклу: получил задачу, подумал, выбрал действие, выполнил, оценил результат, повторил. ReAct, agent loop, reasoning and acting. Идея красивая: дай модели свободу, и она сама найдёт путь к решению.
Я проанализировал конкретные паттерны сбоев на своих данных:
- Агент решает «уточнить контекст» и начинает задавать вопросы вместо работы. Пользователь загрузил файл и ушёл. Отвечать некому. Задача зависает.
- Агент зацикливается. Вызывает один и тот же инструмент с одинаковыми параметрами, получает ту же ошибку, повторяет. Пока не исчерпает лимит итераций.
- Агент теряет контекст. На пятом шаге забывает, что делал на первом. Начинает анализ заново, хотя файл уже прочитан и результат записан. После 76 сжатий контекста (до 23 раз в одной сессии) агент буквально забывает, что уже сделал.
- Агент принимает неожиданное решение. Вместо анализа договора решает «поискать похожие договоры в интернете для сравнения». Инструмент поиска не подключён. Ошибка. Задача провалена.
- Агент выбирает неоптимальный стек. Для одностраничного лендинга разворачивает Next.js с 388 пакетами, потому что в обучающих данных Next.js упоминается чаще. Это не интеллект, это статистическое смещение.
Всё это при одной и той же модели. Проблема не в мозгах. Проблема в свободе.
Решение: свобода мышления без свободы действий
Я переписал архитектуру. Вместо цикла «подумай и действуй» — жёсткая последовательность этапов с контролем на каждом.
На каждом этапе модель думает свободно. Анализирует договор, находит ловушки, формулирует рекомендации на человеческом языке. Пишет Python-скрипт для расчёта коммуналки. Сравнивает позиции сметы с рыночными ценами. Это творческая работа, и LLM справляется с ней блестяще.
Но модель не выбирает, что делать дальше. Следующий этап определяет система, а не модель. Модель не может решить «а пойду-ка я вместо анализа договора поищу информацию в интернете». Не может зациклиться на одном действии. Не может забыть, что делала три шага назад, потому что каждый этап начинается с чистого контекста и конкретной задачи.
Стек определяется на первом этапе, исходя из задачи: лендинг — HTML + Tailwind, бот — Python, приложение — React. Никаких переключений посередине. Никаких npm install 16 раз.
Аналогия с хирургом. Протокол операции жёсткий: разрез, доступ, основной этап, контроль, ушивание. На каждом этапе хирург принимает решения свободно, исходя из того, что видит. Но никто не даёт хирургу свободу начать операцию с ноги, когда оперируют сердце.
Результаты
Один движок. Конфигурационные файлы для каждой роли. Добавить нового сотрудника — написать конфиг, не переписывать систему.
ИИ-Сотрудники (структурированный подход):
- Фрилансер 2.0 — 61 задача, 1 ошибка (сбой провайдера), 1,6%. Средний расход — 250 токенов. На agent loop тот же агент: 11 задач, 3 ошибки, 27,3%, 338 токенов. Ошибок в 17 раз меньше, расход на треть ниже.
- Бухгалтер 2.0 — 23 задачи, 0 ошибок. 382 токена на задачу. Пишет Python-скрипт, считает, сам создаёт тесты и проверяет свои расчёты. Агент на свободном цикле этого не делает, потому что у него нет этапа «проверь себя».
- Сметчик 2.0 — 18 задач, 0 ошибок. 598 токенов. Парсит Excel со сметой, сравнивает с рыночными ценами региона, находит завышения и дубли. Старый сметчик на agent loop: 8 задач, 1 ошибка, 12,5%, 1 571 токен. Втрое дороже и нестабильный.
- Документовед — 5 задач, 0 ошибок. 119 токенов. Находит 9 из 10 заложенных рисков в договоре за 3 минуты. Выявляет 23 различия между двумя версиями документа. Приоритизация: критическое — красным, среднее — жёлтым, информационное — синим. Вердикт: «Не подписывайте без правок».
- Аналитик 2.0 — 238 токенов. Автоопределение типа данных по колонкам. Нашёл спад 24,4% в тестовых данных. Построил графики через matplotlib. Не угадал, а посчитал.
Агент разработки 2.0 (та же архитектура, применённая к созданию сайтов):
- Лендинг для пиццерии — 4 минуты, 19 шагов, 480 токенов, 0 ошибок. Полностью рабочий сайт с меню, ценами, формой заказа и фотографиями. Для сравнения: старый agent loop тратил в среднем 196 шагов на ту же задачу. В десять раз больше.
Сводная таблица из продакшена:
Шагов на задачу
Agent loop (старый)
Agent loop (анализ 10 000 шагов)
19 с ошибками
Структурированный подход (ИИ-сотрудники)
определяется ролью
Структурированный подход (разработка)
Одна и та же модель. Одни и те же инструменты. Разница только в архитектуре.
Почему это не «ещё один фреймворк»
Каждую неделю появляется новый фреймворк для ИИ-агентов: LangChain, CrewAI, AutoGen, ещё десяток. Все обещают «просто опиши задачу». Все работают нестабильно, потому что внутри тот же agent loop.
Здесь другой подход. Не «дай модели свободу и надейся». А «дай модели рельсы и свободу мышления внутри рельсов».
NASA 70 лет пыталась создать двигатель Aerospike. Компания LEAP 71 дала ИИ спроектировать его, но с жёсткими параметрами: тяга, топливо, давление, охлаждение. Двигатель сработал с первого раза. Свобода мышления внутри жёстких ограничений.
MIT говорит: 95% пилотов генеративного ИИ не достигают результатов. Думаю, причина в том, что компании дают модели слишком много свободы. «Вот задача, разберись сам». Модель разбирается. Иногда правильно. Иногда нет. 75 на 25.
Конвейер Форда. Протокол хирурга. Чеклист пилота. Методологии, которым сто лет. Просто теперь на конвейере стоит не человек, а LLM.
ИИ-агенты в их текущем виде — автономные, свободные, «думающие сами» — не работают в продакшене. OpenClaw это подтверждает: 346 000 звёзд на GitHub, мерч с лобстерами, крипто-токены, конференции в двух городах. А 4 апреля Anthropic отключила 135 000 пользователей от дешёвого доступа, потому что экономика не сходилась. Стабильного демо так никто и не показал.
10 000 шагов моего собственного agent loop подтверждают: 37% сессий с ошибками, 23% ресурсов на оверхед, npm install 16 раз за сессию, миллион токенов на один лендинг. Я заплатил за этот урок ощутимую сумму и два месяца работы. Но получил данные, которых нет ни у кого.
Работают ИИ-сотрудники: предсказуемые, контролируемые, с жёсткой структурой и свободным мышлением на каждом этапе. 108 задач, 1 ошибка, менее 1%. Лендинг за 4 минуты и 19 шагов вместо 196. Та же модель, те же инструменты, другая архитектура.
Не на бенчмарке. Не в демо. В продакшене с реальными пользователями. Скриншоты выше — из реальной админ-панели, не из Figma.