Я строю AI-бот для самопознания: спек, архитектура и почему LLM — периферия

Я строю AI-бот для самопознания: спек, архитектура и почему LLM — периферия

Статья о создании AI-бота для самопознания. Продукт строится на основе event sourcing, инвариантов и Stability Engine. LLM используется как периферийный компонент, а не как ядро.

Проблема: статичные тесты и амнезия чат-ботов

Человек не понимает своих паттернов. Существующие инструменты отвечают на это плохо. MBTI и соционика — статичны, психотерапия — медленна и дорога, а «AI-коучи» страдают амнезией.

Концепция: ÆON Map System

Профиль устроен как карта из семи слоёв. Каждый слой — это группа «карт» (cards), которые накапливают сигналы из диалога и в какой-то момент «назначаются».

Архитектурное решение: event sourcing, инварианты, стабильность

Центральная сущность — Answer. Когда пользователь отвечает на вопрос, рождается событие answer.given. Stability Engine — отдельный модуль, который контролирует пороги, лимиты и safety.

Почему LLM — периферия, а не ядро

LLM решает: как сформулировать следующий вопрос, как интерпретировать свободный текст ответа, как сгенерировать глиф. LLM не решает: когда назначать карту, когда прекращать сессию из-за кризиса.

Такое разделение даёт две вещи: предсказуемость и дешевизну эксплуатации.

Читать оригинал