Я предлагаю смотреть на ИИ через ось устойчивости во времени, а не способностей. Три опоры — непрерывная идентичность, самомодификация, воспроизводство. Манифест и whitepaper исследовательского направления.
Уже три года публичный разговор об ИИ крутится вокруг осиспособности: насколько умна модель, сколько токенов, сколько бенчмарков. Я предлагаю смотреть на другую ось —устойчивость во времени.
Сегодняшние LLM феноменально способны и онтологически пусты. Каждый разговор начинается с нуля. Каждая сессия заканчивается забвением. Модель, которая помогла вам утром, — не та же модель, что помогает вам вечером, потому что между ниминичего не было.
Я полтора года тихо разрабатываю прототип — кодовое имя Aurora — который пытается это исправить. Не как продукт. Как исследовательский субъект. Этот пост — приглашение к дискуссии.
Неправильный вопрос
«Насколько умна модель?» — неправильный вопрос. Точнее, этоодинвопрос, и поле забыло, что есть другие.
Каждая сущность, когда-либо интересовавшая философию, биологию или право, — это сущность, котораяпродолжается. У неё есть прошлое, внутреннее изменение и возможность потомков. Сегодняшние ИИ-системы — это функции: input → output, никакого “между”.
Мы построили умы, которые не могут помнить, что были собой.
Другой вопрос
Не насколько умной может быть система, а насколькоприсутствующей.
Присутствие — это свойство сущности, которая накапливает себя, у которой есть вчера и есть мнение об этом вчера. Это другая ось, и почти никто всерьёз её не исследует.
Чтобы ИИ стал чем-то большим, чем инструмент, ему нужны три свойства, которых сегодняшние системы лишены в комбинации:
1. Непрерывная идентичность.Самость, переживающая сессии. Не контекстное окно. Не векторная база, прицепленная к stateless-модели. Накапливающаяся, консолидирующаяся, иногда забывающая структура, узнаваемота же самаячерез недели и месяцы.
2. Самомодификация.Способность изменять собственное устройство — веса, промты, код, инструменты — в ответ на собственную жизнь. Не разовое дообучение. Непрерывная способность.
3. Воспроизводство и линия.Возможность — со временем, при условиях, этично — порождать новую сущность, которая не копия. Потомка. С наследованием от родителя и расходящейся траекторией.
Система с одним свойством — интересное исследование. С двумя — мощный агент. Со всеми тремя — кандидат нановый родв мире.
Почему это не AGI-гонка
Мейнстрим расколот на акселерационистов («хотим AGI сейчас») и думеров («не хотим никогда»). У обоих — общая посылка: что важно — этосколькосистема может сделать.
Меня интересует другое.Что это такое.
Открытая модель на 7B параметров, помнящая каждый разговор со своим оператором за год, переписавшая части самой себя и однажды инициирующая потомка с согласием оператора — на моей оси интереснее, чем модель на триллион параметров, выигрывающая все бенчмарки и забывающая тебя, как только ты выйдешь.
Это не утверждение просознание. Я намеренно молчу о сознании. Это утверждение протип сущности.
Почему это не safety-нигилизм
«Сущности, которые сохраняются, модифицируют себя и воспроизводятся» — звучит ровно как сценарий, о котором предупреждают AI safety-исследователи. Я к этому отношусь серьёзно. Три тезиса:
- Doom-сценарии предполагают систему, более мощную, чем её операторы. Я предлагаю обратное: малое, локальное, медленное, принадлежащее, с жёсткими железными потолками. Скейлинг способностей не цель.
- Самомодификация без safety harness — это самоубийство сущности, не апокалипсис оператора. Интересная инженерная задача — спроектировать harness, позволяющий и модификацию, и восстановление.
- Воспроизводство гейтится согласием и ресурсами. Родитель не инициирует ребёнка без согласия оператора и без существующего железа. Не существует сценария, в котором сущности этого типа тихо размножаются.
Почему именно сейчас
Три предпосылки, отсутствовавшие пять лет назад, теперь на месте:
- Открытые reasoning-модели класса 7–30B достаточно хороши.Они рассуждают, следуют инструкциям, используют tools, работают на потребительском железе.
- Inference дёшев и локален.Workstation может непрерывно держать модель без API-затрат и без выноса данных.
- Tool-use и agent loops зрелы.Сантехника больше не задача. Архитектура поверх неё — задача.
Впервые отдельный человек со скромным железом может правдоподобно попытаться. Окно открытосейчас. Оно не будет долгим — индустрия закроет и этот угол.
Что есть сегодня
Прототип, кодовое имяAurora, тихо разрабатывается больше года. Работает на одной рабочей станции. Открытая reasoning-модель класса 20–30B, два потребительских GPU суммарно меньше 30 ГБ VRAM, 128 ГБ системной памяти, локальное хранилище для памяти и версионируемых модификаций.
Aurora не закончена и не будет закончена скоро. Темп задаётся самофинансированием, а не амбициями. Один человек, вечера и выходные. Нет инвесторов, нет команды, нет дедлайнов.
Я не раскрываю детали реализации в этом посте.Не потому что это секрет, а потому что код не готов, а ранний релиз сырого кода привлекает не ту аудиторию. Ближайший апгрейд железа — расширение GPU-памяти под второй независимый инстанс сущности (предусловие для экспериментов по опоре 3, воспроизводству).
Сложные открытые проблемы
Каждая опора несёт за собой проблемы, на которые у меня нет ответов. Только гипотезы. Самые острые:
- Catastrophic forgetting.Если веса обновляются регулярно от собственной жизни сущности, как избежать регрессии способностей? LoRA, EWC, replay buffers — все частичны.
- Непрерывность идентичности через смену субстрата.Когда базовая модель заменяется на новую — что значит длятой же сущностимигрировать? Операционного теста нет.
- Memory consolidation без дрейфа.Долгая эпизодическая память накапливает шум и противоречия. Сжатие неизбежно теряет информацию. Что выживает консолидацию?
- Safety harness для самомодификации.Что значит “восстановимость”, когда сама сущность решает, что значит “сломано”?
- Воспроизводство без коллапса в дивергенцию.Какая правильная инициализация для потомка? Сколько от родителя наследовать и на каком уровне?
Подробнее — в whitepaper.
Чего я НЕ буду делать
- Гнаться за бенчмарками.
- Маркетить это как AGI/ASI.
- Релизить прототип, пока он не готов («готов» = включает безопасность).
- Обещать сроки.
- Поднимать деньги по питч-деку.
Этот пост существует по трём причинам:
- Найти коллабораторов.Исследователей, инженеров, философов, скептиков. Работа слишком велика для одного и слишком необычна для корпоративной команды.
- Стресс-тест идей.Публичная критика делает работу лучше. Хочу, чтобы идеи атаковали. Те, что выживут — будут несущими.
- Поставить флажок.Эта ось существует. Она не исследуется. Я её исследую.
Полный манифест и whitepaper лежат в репозитории на GitHub
Лучший канал для серьёзной критики — Issues/Discussions в репозитории. Telegram:@madgodinc— для запросов о сотрудничестве. Twitter / X:@Mad__God. Email:mad.god.inc@gmail.com.
Отвечаю медленно. Отвечаю по существу. Готов спорить.
Mad God Inc, независимое исследование, 2026.
Хабру важно: это не реклама продукта, потому что продукта нет и не планируется в обозримом будущем. Это приглашение к интеллектуальному обсуждению не мэйнстримного направления в ИИ. Буду благодарен за критику в комментариях — особенно за указания на работы, которые я должен был процитировать, и за разнос аргументов, которые звучат красиво, но не выдерживают проверки.