OpenClaw и память без амнезии: как выбрать между Lossless Claw, OpenViking, ByteRover, MemPalace и LLM Wiki

OpenClaw и память без амнезии: как выбрать между Lossless Claw, OpenViking, ByteRover, MemPalace и LLM Wiki

Когда говорят о «памяти для ИИ-агента», легко начать спорить о разном, думая, что обсуждается одно и то же.

Один хочет, чтобы агент не забывал длинные диалоги. Другой — чтобы у него была база знаний по проекту. Третий — отдельный контекстный слой с документами, навыками и предпочтениями. Четвёртый не доверяет моделям выбирать, что важно. Пятый — хочет не архив, а живую внутреннюю wiki, которую агент сам поддерживает.

В OpenClaw эта развилка особенно заметна. У платформы есть архитектура плагинов и слот plugins.slots.contextEngine для внешних движков контекста. В обновлении OpenClaw 2026.4.7 вернули встроенный memory-wiki stack — подход с накопительной wiki перестал быть идеей и стал частью инструментария.

Сейчас в фокусе пять систем:

  • Lossless Claw
  • OpenViking
  • ByteRover
  • MemPalace
  • LLM Wiki — теперь и встроен в OpenClaw

Все они — про память. Но смысл у неё разный.

Кратко:

  • Lossless Claw — сохраняет историю диалога.
  • OpenViking — строит контекстное пространство для агентов.
  • ByteRover — превращает опыт в знания по проекту.
  • MemPalace — хранит всё дословно и ищет потом.
  • LLM Wiki — ведёт живую wiki, которую агент обновляет сам.

Ниже — как устроены, как подключаются к OpenClaw и для каких задач подходят.

С чего начинается память в OpenClaw

Внешний модуль памяти подключается как движок контекста. В конфиге это выглядит так:

После этого OpenClaw передаёт ему три задачи: сохранять контекст, собирать его перед ответом и сжимать при нехватке токенов.

И вот каждый подход отвечает на свой вопрос:

  • Lossless Claw: главное — не потерять историю.
  • OpenViking: нужно хранить всё контекстное пространство.
  • ByteRover: ценность — в полезном знании, а не в архиве.
  • MemPalace: не сокращайте память — храните всё и ищите.
  • LLM Wiki: память — это живая, растущая wiki, а не архив.

Сравнивать их как «пять похожих систем» нечестно. Это пять разных архитектурных взглядов на одну проблему.

Lossless Claw: память разговора без потерь

Lossless Claw решает проблему частичной амнезии: когда агент помнит тему, но забывает, как к ней пришёл.

Он сохраняет сообщения в SQLite и сворачивает старые части диалога в многоуровневые сводки. Свежий хвост остаётся в исходном виде, а старое — переходит в структурированную память.

Каждая сессия — отдельный разговор. Сообщения хранятся с ролями, порядком и оценкой токенов. При росте истории — создаются сводки, которые можно объединять дальше. Перед ответом контекст собирается из свежих сообщений и сводок.

Решение продумано до деталей: восстановление после сбоев, сериализация записи, режимы деградации при проблемах с моделью.

Ставится просто:

Типичные настройки:

Lossless Claw особенно хорош в отладке, сложной разработке, архитектурных обсуждениях и инцидентах — где важен не только ответ, но и путь к нему.

Ограничение: это не база знаний команды и не универсальный контекст. Это — сильное решение для памяти сессии.

Если задача: «пусть агент не забывает свою историю» — Lossless Claw один из лучших вариантов.

OpenViking: память как инфраструктура

OpenViking — это не просто модуль, а полноценная база контекста для агентов.

Он предлагает структурированную память, похожую на виртуальную файловую систему. Ресурсы, пользовательская память, навыки, сессионные данные — всё живёт в пространстве viking://....

Память здесь — не побочный эффект поиска, а самостоятельный слой платформы.

Сильные стороны:

  • Разделение типов контекста.
  • Уровни детализации: краткое описание, обзор, полные данные.
  • Наблюдаемость: адресация, явные области поиска, инструменты отладки.

Это делает OpenViking ближе к инфраструктурному решению, чем к плагину.

Ставится сложнее:

Есть и установка через скрипт:

Отдельная установка требует Python, Go, C++ компилятор, модели для эмбеддингов и визуально-языковых задач. Это показывает масштаб — решение шире и тяжелее.

С OpenClaw работает как нативный движок контекста. Пример настройки:

OpenViking раскрывается там, где нужен общий контекстный слой: несколько агентов, сервер памяти, долгосрочное хранение ресурсов и навыков.

Минус: за широту — сложность. Если нужна только память диалога, он будет избыточен. Но если нужен контекстный слой уровня платформы — сильный кандидат.

ByteRover: память как знание по проекту

ByteRover не стремится хранить всё и не претендует на универсальность. Его цель: превратить рабочие сессии в полезные знания.

Он отвечает не на «как запомнить диалог», а на «как из сессий достать то, что пригодится потом».

В основе — дерево контекста в .brv/context-tree/. Знания раскладываются по доменам, темам, подтемам. Каждый файл — markdown с метаданными, фактами, описанием и связями. Строятся обзоры, сводки и индекс для запросов.

Сильная сторона — прозрачность. Память можно открыть, отредактировать, положить в Git, обсудить. Это важно для инженерной работы: когда память — чёрный ящик, ей быстро перестают доверять.

Рабочий цикл:

  • Перед ответом — brv query ищет релевантные знания.
  • После хода — brv curate обновляет или создаёт файлы знаний.

ByteRover строит память через поиск и курирование. Он не хранит всё, а накапливает устойчиво полезное.

Поиск — поэтапный: сначала кэш, потом полнотекстовый, затем тяжёлые методы. Это инженерная дисциплина, а не постоянная нагрузка.

С OpenClaw работает как нативный движок. Две полезные особенности:

  • Автоматический сброс знаний перед сжатием контекста — чтобы важное не исчезло.
  • Ежедневная добыча знаний — задача по расписанию переносит из memory/ в долговременную базу то, что важно: причины багов, практики, решения.

Ставится просто:

Интеграция с OpenClaw:

ByteRover особенно хорош, когда агент работает как инженер: в проектной памяти, памяти команды, базе правил и наработок.

Ограничение: это не лучший выбор, если нужно просто помнить весь диалог. Он силён там, где память должна стать качественным знанием.

MemPalace: дословное хранение и сильный поиск

MemPalace исходит из простой мысли: многие системы теряют ценность, когда решают, что именно запомнить. Исчезают причины, альтернативы, споры.

Решение: хранить разговоры дословно и делать ставку на поиск.

В базовом режиме — хранение в ChromaDB без сводок и извлечения. Такой подход дал 96.6% R@5 на LongMemEval — без внешних API и участия модели в хранении.

Это главный факт: дословное хранение + хороший поиск оказалось сильнее «умных» схем с предварительным извлечением.

Поверх архива строится иерархия — «дворец памяти»: крылья, комнаты, типы памяти, указатели, связи. Без образов — это структурированная адресация, фильтрация и навигация.

Установка:

Инициализация:

Загрузка данных:

Поиск:

Есть команды wake-up, status, split, compress — но суть: хранить ближе к исходнику, искать потом.

Авторы честно признали, что часть заявлений была завышена: слой AAAK не даёт чудес, «30-кратное сжатие» — преувеличение, некоторые функции — в разработке. Это скорее плюс: прозрачность.

С OpenClaw — особая история. MemPalace не выглядит нативным движком контекста. Логичнее воспринимать его как внешний слой памяти.

Практически: OpenClaw — основной агент, MemPalace — локальный архив, к которому агент обращается через инструменты или сервер.

Кто-то скажет: неудобно, нет нативности. Другие — наоборот: сильный архив можно держать отдельно, не привязывая к одному движку.

Если вы не доверяете модели решать, что запоминать, — MemPalace стоит изучить.

LLM Wiki: память как живая wiki

LLM Wiki — не просто ещё одна система. Это отдельный подход, описанный Андреем Карпатым в заметке про personal knowledge bases с помощью LLM.

Суть: большинство систем работают как поиск — хранят файлы, и модель каждый раз заново собирает ответ. Знание не накапливается.

LLM Wiki предлагает иное: агент постепенно строит и поддерживает постоянную wiki из markdown-файлов — между источниками и ответами.

При добавлении нового материала модель не просто индексирует его. Она:

  • обновляет страницы,
  • правит связи,
  • добавляет утверждения,
  • отмечает противоречия,
  • пересобирает обзоры.

Знание компилируется один раз и поддерживается — а не добывается заново при каждом запросе.

В git описана трёхслойная схема:

  • сырые источники — неизменяемые;
  • wiki — сгенерированные и поддерживаемые страницы;
  • протокол — как вести wiki.

Это не retrieval. Это накопительный рабочий артефакт.

Почему это важно сейчас

Потому что OpenClaw в релизе v2026.4.7 вернул встроенный memory-wiki stack.

В нём:

  • плагин;
  • CLI с sync/query/apply;
  • интеграция с memory-host;
  • структурированные поля утверждений и доказательств;
  • поиск по дайджестам;
  • проверка достоверности;
  • кластеризация противоречий;
  • мониторинг устаревших данных;
  • поиск с учётом актуальности.

LLM Wiki перестаёт быть практикой в Obsidian — он становится частью OpenClaw.

Что это значит на практике

Встроенный memory-wiki stack делает ставку на то, что память — это не только поиск и не только сводки. Это поддерживаемый набор утверждений, страниц, доказательств, связей — систему знаний, которую можно синхронизировать, проверять и оздоравливать.

LLM Wiki — между ByteRover и полноценной базой знаний, но с явным упором на wiki как главный артефакт.

Где LLM Wiki особенно силён

Там, где знание накапливается неделями и месяцами: исследования, конкурентный анализ, длительные проекты, личные и командные wiki.

Важно не просто найти, а иметь собранную, связанную и актуальную картину.

Появление memory-wiki stack — важный шаг. OpenClaw теперь поддерживает память как:

  • историю сессий,
  • поиск,
  • поддерживаемый накопительный слой знания.

Ограничение подхода

LLM Wiki — не лучший выбор, если нужна память длинного разговора здесь и сейчас. Это стратегический подход. Он требует структуры и дисциплины. Выгоду даёт на дистанции.

Но если задача: «пусть агент не просто помнит, а ведёт растущую картину знаний» — это один из самых интересных путей.

Чем подходы отличаются на практике

Главная сильная сторона, что запоминает, как работает с OpenClaw:

Система Сильная сторона Что запоминает Интеграция с OpenClaw
Lossless Claw Длинная память разговора Историю сессий, отладку, путь к решению Нативный движок контекста
OpenViking Широкий контекстный слой Память, ресурсы, навыки, служебные данные Нативный движок контекста
ByteRover Память проекта и команды Решения, правила, наработки, знания по коду Нативный движок контекста
MemPalace Дословный архив и сильный поиск Разговоры, чаты, причинно-следственный контекст Внешний слой памяти
LLM Wiki / memory-wiki Накопительная живая база знаний Темы, сущности, утверждения, доказательства, evolving wiki Встроенное направление в OpenClaw

Вопрос «что лучше» почти бесполезен. Важнее: какая память вам нужна.

Что выбрать под разные задачи

  • Длинные сессии, не терять ход обсуждения — Lossless Claw.
  • Контекстный слой уровня платформы — OpenViking.
  • Агент как инженер, память как знание по коду и правилам — ByteRover.
  • Локальная память без сокращения, не доверять модели выбор — MemPalace.
  • Поддерживаемая wiki с утверждениями, проверкой, обновлением — LLM Wiki, особенно с встроенным memory-wiki stack в OpenClaw.

Рынок памяти для ИИ-агентов перестаёт сводиться к одному трюку.

  • Память разговора — Lossless Claw.
  • База контекста уровня платформы — OpenViking.
  • Память проекта и кодовой базы — ByteRover.
  • Локальный дословный архив с поиском — MemPalace.
  • Накапливающаяся живая wiki — LLM Wiki / memory-wiki.

Память агента больше не выглядит как универсальный промт «запомни». Это набор архитектурных решений. Выбирать нужно не по хайпу, а по тому, как работает ваш агент.

Читать оригинал