Один разработчик и Claude Code создали GEO-платформу для мониторинга видимости бренда в 9 нейросетях

Один разработчик и Claude Code создали GEO-платформу для мониторинга видимости бренда в 9 нейросетях

В сентябре 2025 года я работал мобильным разработчиком в компании Biblio Globus. В один из дней CEO в общем чате спросил: «Кто что знает про GEO?» — с этого момента интерес к термину начал расти. Я начал с небольшого технического аудита фронтенда, а по вечерам — с создания собственного продукта. Со временем вовлеченность на работе падала, и в декабре я уволился по соглашению сторон, перейдя на полную разработку продукта. Сейчас он занимает меня с утра до ночи.

Откуда взялся такой интерес? Не знаю. Возможно, из той же точки, что и увлечение нейросетями. Я начал использовать ChatGPT с первых новостей о нём, а с марта 2025 — стал ежедневным пользователем Claude.

Миссия платформы

Платформа призвана дать бизнесу инструмент, который полностью берёт на себя работу с видимостью бренда в генеративных нейросетях. Из этой потребности родился термин GEO (Generative Engine Optimization) — оптимизация под генеративные поисковые системы.

Как платформа решает эту задачу:

  • Показывает видимость бренда и его конкурентоспособность в ответах нейросетей, строит графики
  • Указывает, где именно есть пробелы в видимости, и какие источники используются нейросетями
  • На основе конкурентных пробелов и анализа источников формирует и корректирует рекомендации в рамках еженедельного цикла, позволяет оценивать их влияние
  • Превращает все метрики в понятные отчёты с динамикой изменений за неделю и объясняет, что изменилось

Мой напарник — Claude Code

Главный фактор моей вовлечённости — чувство созидания. Я выступаю как главный архитектор: ставлю задачи сессиям Claude Code, а они управляют субагентами. Вместе мы строим продукт блок за блоком.

Весь продукт реализован через ежедневные сессии. Пайплайн разработки быстро стабилизировался:

Основная сессия — это несколько параллельных вкладок Claude Code под разные задачи. Каждая задача проходит цикл: ресёрч → планирование (plan mode) → реализация → ручная проверка (UI/UX) → code review через отдельного агента. Если находятся проблемы — итерация возвращается на реализацию.

Раньше я создавал субагентов и просил Claude оркестрировать их. Сейчас эту функцию заменил встроенный Agent Team.

Мой любимый подход: один агент тестирует и составляет список проблем, второй — исправляет и отправляет на повторную проверку. Они итерируют между собой, пока результат не станет приемлемым. А я в это время перехожу к другой задаче.

Например, Agent Team включает QA-reviewer и ui-fixer, которые итерируют друг с другом.

MCP — прямой доступ к инфраструктуре

MCP дают Claude Code прямой доступ к проекту:

  • Supabase MCP — самый важный. Все миграции и работа с данными идут через него. Активно используется в ежедневном пайплайне проверки корректности обработки ответов нейросетей
  • Trigger.dev MCP — запускаю пайплайн проверки, чтобы убедиться, что все фоновые задачи завершены
  • Next.js DevTools MCP — доступ к dev-серверу. Помог при обновлении до Next.js 16
  • Exa MCP — поиск и ресёрч. Использую для поиска стандартов индустрии и актуальной документации
  • Sentry MCP — Claude получает реальные ошибки и исправляет их. Использую ежедневно

Заметил закономерность: при приближении к лимитам подписки качество ответов падает. Паттерн стабильный, хотя причина неизвестна.

Стоимость четырёх месяцев разработки на Max-плане: 800$. В некоторые недели лимит исчерпывался — тогда продолжал на GLM от z.ai, потратив 45$ за квартал.

Экосистема платформы

Технологический стек:

  • Фронтенд: Next.js + shadcn
  • Бэкенд: Supabase
  • Оркестрация: Mastra
  • Хостинг: Dokploy с автоматическим деплоем через GitHub (на пуше в main — билд и выкатка на прод)

Также есть админ-панель для управления пользователями и подписками.

Как работает платформа

1. Конвейер мониторинга и обработка ответов

Сбор данных начинается ежедневно. На этапе онбординга система автоматически, на основе структуры сайта, генерирует 4–6 тематических кластеров и по 4–7 промптов для каждого.

Кластер — тематический набор промптов.
Промпт — запрос, отправляемый в нейросеть.

За каждым брендом закрепляется временной слот. Первая отправка — сразу, далее — ежедневно через trigger.dev task. Она отправляет промпты в нейросети, обрабатывает ответы и сохраняет в Supabase. В этой же задаче выполняется технический чек сайта: robots.txt, sitemap, качество Schema-разметки на главной, в каталоге и блоге. Проблемы отправляются в Командный центр.

Особенности некоторых провайдеров:

  • DeepSeek — нет API с веб-поиском
  • Google AI Mode и Google AI Overview — только скрапинг
  • Google AI Overview может не дать ответа по поисковому запросу

Обработка ответов — ключевой этап. В контексте GEO важна не просто упоминаемость, а контекст. Программная обработка не сработала — лучшим решением стала постобработка с помощью LLM.

Каждый ответ обрабатывается отдельным вызовом с тщательно проработанным системным промптом. Из него извлекаются:

  • Упомянутые бренды
  • Тональность упоминания (позитивная, нейтральная, негативная)
  • Наличие рекомендации (например, «один из лучших»)
  • Позиция в списке (например, 2 из 8)

Claude Code проявил себя на полную: долгая итерация создания промптов, проверка и корректировка системного промпта через Agent Team. Один субагент запускал мониторинг, второй находил несоответствия, третий — исправлял.

Такие данные позволяют строить мощные графики для конкурентного анализа. Например: «Мы упоминаемся чаще, но при совместном упоминании с конкурентом — на более низкой позиции».

Затраты на API:

  • Разработка и тестирование: 128$
  • Яндекс: 4800 ₽ (цена одного вызова — 5 ₽)
  • Обработка одного ответа: $0.0016

2. Визуализация данных

Весь фронтенд написан с помощью Claude Code. Используется shadcn. Раньше работал через MCP с документацией, сейчас — через агентский skill.

Метрики рассчитываются на лету с помощью PostgreSQL-функций при открытии дашборда через Supabase SDK. Результаты кэшируются с помощью TanStack Query.

Ключевые метрики:

  • Охват ответов — процент ответов, где упомянут бренд
  • Share of Voice (SoV) — доля упоминаний бренда среди всех конкурентов. Например: бренд упомянут 20 раз, конкуренты — 80. SoV = 20%. Эта метрика — основа для работы Командного центра
  • Цитирование домена — процент ответов, где указан домен бренда (ссылка или упоминание)
  • Share of Citation — доля цитирований бренда относительно конкурентов

В разделе конкурентной разведки — топ брендов. SoV здесь — главная метрика. Пример: 10 брендов имеют 100% охват, но SoV = 10% — значит, делят внимание поровну. Если появится 11-й, их доля уменьшится. SoV показывает реальную долю внимания на рынке.

По клику на конкурента — сравнение Head-to-Head, где бренд проигрывает.

Конкурентные пробелы — точки роста. Показывают, в каких промптах бренд уступает.

По клику — детальная страница промпта с данными.

Раздел Источники включает:

  • Общую карту источников, использованных нейросетями
  • Страницы домена, которые использовались, но не процитированы. С них можно запустить AI-аудит — агент возвращает структурированный JSON с рекомендациями по повышению шанса цитирования. Эти страницы также попадают в Командный центр при ежедневном чеке

Все разделы поддерживают фильтры по датам, нейросетям и кластерам. В фильтрах отображаются SoV и охват — так удобнее анализировать: выбрал фильтр → увидел сводку → нашёл проблему → дашборд обновился.

3. Из метрик — в рекомендации и отчёты

Команда AI-агентов работает с полным контекстом бренда. Оркестрацией управляет Mastra workflow.

Агенты получают данные из мониторинга, выполняют свои задачи по системным промптам. Некоторые работают параллельно, другие ждут результатов от других.

Каждую неделю они анализируют метрики, отдельные ответы, профили конкурентов и превращают всё в понятный отчёт. Есть два типа:

  • Первичный — текущие данные + обзор видимости + рекомендации
  • Еженедельный — сравнение с прошлым отчётом, динамика изменений, корректировка рекомендаций

Шаблон один, различие учтено в системных промптах.

Агенты также наполняют Командный центр. Туда попадают:

  • Рекомендации на основе конкурентных пробелов и источников
  • Данные из ежедневного технического чека сайта (Schema-разметка, robots.txt и др.)

Агенты знают о текущих рекомендациях: если проблема решена — закрывают её; если SoV изменился — обновляют рекомендации.

Главный способ роста видимости — размещение контента на источниках, которые используются в ответах. Подход один: разместить упоминание бренда в выгодном ключе. Для этого есть Контент-конвейер.

Он генерирует брифы с фокусом на то, чтобы модель процитировала контент. Можно сгенерировать текст и JSON-разметку для блога. В планах — добавить настройку «голоса бренда», чтобы контент создавался в нужном стиле.

Самой быстрой в реализации фичей стала отслежка эффективности опубликованного контента: по URL видно, как часто появляется ссылка и сколько промптов она затрагивает.

Итоги

  • Интегрировал Claude Code в 100% рабочих процессов
  • Создал полноценную платформу для GEO-мониторинга
  • Монетизировал: 109 брендов попробовали, 9 — оплатили подписку
  • Запустил открытый рейтинг видимости российских брендов в 8 нейросетях
  • Разобрался с GEO и вижу результаты у бренда, с которым работаю

Что дальше

  • Активно продвигать платформу и улучшать функционал. Цель — перенести уровень автоматизации из моего личного пайплайна в Mastra. Уверен, генеративный поиск станет основным каналом поиска и выбора
  • Писать статьи на Хабр о работе платформы и опыте автоматизации с Claude Code. Если интересно — пишите в комментариях. Например, могу подробнее рассказать о генерации рекомендаций
Читать оригинал