Когда говорят о «памяти для ИИ-агента», легко начать спорить о разном, думая, что обсуждается одно и то же.
Один хочет, чтобы агент не забывал длинные диалоги. Другой — чтобы у него была база знаний по проекту. Третий — отдельный контекстный слой с документами, навыками и предпочтениями. Четвёртый не доверяет моделям выбирать, что важно. Пятый — хочет не архив, а живую внутреннюю wiki, которую агент сам поддерживает.
В OpenClaw эта развилка особенно заметна. У платформы есть архитектура плагинов и слот plugins.slots.contextEngine для внешних движков контекста. В обновлении OpenClaw 2026.4.7 вернули встроенный memory-wiki stack — подход с накопительной wiki перестал быть идеей и стал частью инструментария.
Сейчас в фокусе пять систем:
- Lossless Claw
- OpenViking
- ByteRover
- MemPalace
- LLM Wiki — теперь и встроен в OpenClaw
Все они — про память. Но смысл у неё разный.
Кратко:
- Lossless Claw — сохраняет историю диалога.
- OpenViking — строит контекстное пространство для агентов.
- ByteRover — превращает опыт в знания по проекту.
- MemPalace — хранит всё дословно и ищет потом.
- LLM Wiki — ведёт живую wiki, которую агент обновляет сам.
Ниже — как устроены, как подключаются к OpenClaw и для каких задач подходят.
С чего начинается память в OpenClaw
Внешний модуль памяти подключается как движок контекста. В конфиге это выглядит так:
После этого OpenClaw передаёт ему три задачи: сохранять контекст, собирать его перед ответом и сжимать при нехватке токенов.
И вот каждый подход отвечает на свой вопрос:
- Lossless Claw: главное — не потерять историю.
- OpenViking: нужно хранить всё контекстное пространство.
- ByteRover: ценность — в полезном знании, а не в архиве.
- MemPalace: не сокращайте память — храните всё и ищите.
- LLM Wiki: память — это живая, растущая wiki, а не архив.
Сравнивать их как «пять похожих систем» нечестно. Это пять разных архитектурных взглядов на одну проблему.
Lossless Claw: память разговора без потерь
Lossless Claw решает проблему частичной амнезии: когда агент помнит тему, но забывает, как к ней пришёл.
Он сохраняет сообщения в SQLite и сворачивает старые части диалога в многоуровневые сводки. Свежий хвост остаётся в исходном виде, а старое — переходит в структурированную память.
Каждая сессия — отдельный разговор. Сообщения хранятся с ролями, порядком и оценкой токенов. При росте истории — создаются сводки, которые можно объединять дальше. Перед ответом контекст собирается из свежих сообщений и сводок.
Решение продумано до деталей: восстановление после сбоев, сериализация записи, режимы деградации при проблемах с моделью.
Ставится просто:
Типичные настройки:
Lossless Claw особенно хорош в отладке, сложной разработке, архитектурных обсуждениях и инцидентах — где важен не только ответ, но и путь к нему.
Ограничение: это не база знаний команды и не универсальный контекст. Это — сильное решение для памяти сессии.
Если задача: «пусть агент не забывает свою историю» — Lossless Claw один из лучших вариантов.
OpenViking: память как инфраструктура
OpenViking — это не просто модуль, а полноценная база контекста для агентов.
Он предлагает структурированную память, похожую на виртуальную файловую систему. Ресурсы, пользовательская память, навыки, сессионные данные — всё живёт в пространстве viking://....
Память здесь — не побочный эффект поиска, а самостоятельный слой платформы.
Сильные стороны:
- Разделение типов контекста.
- Уровни детализации: краткое описание, обзор, полные данные.
- Наблюдаемость: адресация, явные области поиска, инструменты отладки.
Это делает OpenViking ближе к инфраструктурному решению, чем к плагину.
Ставится сложнее:
Есть и установка через скрипт:
Отдельная установка требует Python, Go, C++ компилятор, модели для эмбеддингов и визуально-языковых задач. Это показывает масштаб — решение шире и тяжелее.
С OpenClaw работает как нативный движок контекста. Пример настройки:
OpenViking раскрывается там, где нужен общий контекстный слой: несколько агентов, сервер памяти, долгосрочное хранение ресурсов и навыков.
Минус: за широту — сложность. Если нужна только память диалога, он будет избыточен. Но если нужен контекстный слой уровня платформы — сильный кандидат.
ByteRover: память как знание по проекту
ByteRover не стремится хранить всё и не претендует на универсальность. Его цель: превратить рабочие сессии в полезные знания.
Он отвечает не на «как запомнить диалог», а на «как из сессий достать то, что пригодится потом».
В основе — дерево контекста в .brv/context-tree/. Знания раскладываются по доменам, темам, подтемам. Каждый файл — markdown с метаданными, фактами, описанием и связями. Строятся обзоры, сводки и индекс для запросов.
Сильная сторона — прозрачность. Память можно открыть, отредактировать, положить в Git, обсудить. Это важно для инженерной работы: когда память — чёрный ящик, ей быстро перестают доверять.
Рабочий цикл:
- Перед ответом —
brv queryищет релевантные знания. - После хода —
brv curateобновляет или создаёт файлы знаний.
ByteRover строит память через поиск и курирование. Он не хранит всё, а накапливает устойчиво полезное.
Поиск — поэтапный: сначала кэш, потом полнотекстовый, затем тяжёлые методы. Это инженерная дисциплина, а не постоянная нагрузка.
С OpenClaw работает как нативный движок. Две полезные особенности:
- Автоматический сброс знаний перед сжатием контекста — чтобы важное не исчезло.
- Ежедневная добыча знаний — задача по расписанию переносит из
memory/в долговременную базу то, что важно: причины багов, практики, решения.
Ставится просто:
Интеграция с OpenClaw:
ByteRover особенно хорош, когда агент работает как инженер: в проектной памяти, памяти команды, базе правил и наработок.
Ограничение: это не лучший выбор, если нужно просто помнить весь диалог. Он силён там, где память должна стать качественным знанием.
MemPalace: дословное хранение и сильный поиск
MemPalace исходит из простой мысли: многие системы теряют ценность, когда решают, что именно запомнить. Исчезают причины, альтернативы, споры.
Решение: хранить разговоры дословно и делать ставку на поиск.
В базовом режиме — хранение в ChromaDB без сводок и извлечения. Такой подход дал 96.6% R@5 на LongMemEval — без внешних API и участия модели в хранении.
Это главный факт: дословное хранение + хороший поиск оказалось сильнее «умных» схем с предварительным извлечением.
Поверх архива строится иерархия — «дворец памяти»: крылья, комнаты, типы памяти, указатели, связи. Без образов — это структурированная адресация, фильтрация и навигация.
Установка:
Инициализация:
Загрузка данных:
Поиск:
Есть команды wake-up, status, split, compress — но суть: хранить ближе к исходнику, искать потом.
Авторы честно признали, что часть заявлений была завышена: слой AAAK не даёт чудес, «30-кратное сжатие» — преувеличение, некоторые функции — в разработке. Это скорее плюс: прозрачность.
С OpenClaw — особая история. MemPalace не выглядит нативным движком контекста. Логичнее воспринимать его как внешний слой памяти.
Практически: OpenClaw — основной агент, MemPalace — локальный архив, к которому агент обращается через инструменты или сервер.
Кто-то скажет: неудобно, нет нативности. Другие — наоборот: сильный архив можно держать отдельно, не привязывая к одному движку.
Если вы не доверяете модели решать, что запоминать, — MemPalace стоит изучить.
LLM Wiki: память как живая wiki
LLM Wiki — не просто ещё одна система. Это отдельный подход, описанный Андреем Карпатым в заметке про personal knowledge bases с помощью LLM.
Суть: большинство систем работают как поиск — хранят файлы, и модель каждый раз заново собирает ответ. Знание не накапливается.
LLM Wiki предлагает иное: агент постепенно строит и поддерживает постоянную wiki из markdown-файлов — между источниками и ответами.
При добавлении нового материала модель не просто индексирует его. Она:
- обновляет страницы,
- правит связи,
- добавляет утверждения,
- отмечает противоречия,
- пересобирает обзоры.
Знание компилируется один раз и поддерживается — а не добывается заново при каждом запросе.
В git описана трёхслойная схема:
- сырые источники — неизменяемые;
- wiki — сгенерированные и поддерживаемые страницы;
- протокол — как вести wiki.
Это не retrieval. Это накопительный рабочий артефакт.
Почему это важно сейчас
Потому что OpenClaw в релизе v2026.4.7 вернул встроенный memory-wiki stack.
В нём:
- плагин;
- CLI с
sync/query/apply; - интеграция с memory-host;
- структурированные поля утверждений и доказательств;
- поиск по дайджестам;
- проверка достоверности;
- кластеризация противоречий;
- мониторинг устаревших данных;
- поиск с учётом актуальности.
LLM Wiki перестаёт быть практикой в Obsidian — он становится частью OpenClaw.
Что это значит на практике
Встроенный memory-wiki stack делает ставку на то, что память — это не только поиск и не только сводки. Это поддерживаемый набор утверждений, страниц, доказательств, связей — систему знаний, которую можно синхронизировать, проверять и оздоравливать.
LLM Wiki — между ByteRover и полноценной базой знаний, но с явным упором на wiki как главный артефакт.
Где LLM Wiki особенно силён
Там, где знание накапливается неделями и месяцами: исследования, конкурентный анализ, длительные проекты, личные и командные wiki.
Важно не просто найти, а иметь собранную, связанную и актуальную картину.
Появление memory-wiki stack — важный шаг. OpenClaw теперь поддерживает память как:
- историю сессий,
- поиск,
- поддерживаемый накопительный слой знания.
Ограничение подхода
LLM Wiki — не лучший выбор, если нужна память длинного разговора здесь и сейчас. Это стратегический подход. Он требует структуры и дисциплины. Выгоду даёт на дистанции.
Но если задача: «пусть агент не просто помнит, а ведёт растущую картину знаний» — это один из самых интересных путей.
Чем подходы отличаются на практике
Главная сильная сторона, что запоминает, как работает с OpenClaw:
| Система | Сильная сторона | Что запоминает | Интеграция с OpenClaw |
|---|---|---|---|
| Lossless Claw | Длинная память разговора | Историю сессий, отладку, путь к решению | Нативный движок контекста |
| OpenViking | Широкий контекстный слой | Память, ресурсы, навыки, служебные данные | Нативный движок контекста |
| ByteRover | Память проекта и команды | Решения, правила, наработки, знания по коду | Нативный движок контекста |
| MemPalace | Дословный архив и сильный поиск | Разговоры, чаты, причинно-следственный контекст | Внешний слой памяти |
| LLM Wiki / memory-wiki | Накопительная живая база знаний | Темы, сущности, утверждения, доказательства, evolving wiki | Встроенное направление в OpenClaw |
Вопрос «что лучше» почти бесполезен. Важнее: какая память вам нужна.
Что выбрать под разные задачи
- Длинные сессии, не терять ход обсуждения — Lossless Claw.
- Контекстный слой уровня платформы — OpenViking.
- Агент как инженер, память как знание по коду и правилам — ByteRover.
- Локальная память без сокращения, не доверять модели выбор — MemPalace.
- Поддерживаемая wiki с утверждениями, проверкой, обновлением — LLM Wiki, особенно с встроенным memory-wiki stack в OpenClaw.
Рынок памяти для ИИ-агентов перестаёт сводиться к одному трюку.
- Память разговора — Lossless Claw.
- База контекста уровня платформы — OpenViking.
- Память проекта и кодовой базы — ByteRover.
- Локальный дословный архив с поиском — MemPalace.
- Накапливающаяся живая wiki — LLM Wiki / memory-wiki.
Память агента больше не выглядит как универсальный промт «запомни». Это набор архитектурных решений. Выбирать нужно не по хайпу, а по тому, как работает ваш агент.