Google всё чаще отвечает на запросы прямо в поисковой выдаче — через AI-сниппеты, featured snippets и SGE. Пользователь получает ответ, не заходя на сайт. Это означает, что классическое SEO — по ключевым словам, мета-тегам и обратным ссылкам — уже недостаточно. Теперь важно, чтобы контент был «цитируемым»: чтобы AI-системы выбирали именно ваш ресурс в качестве источника.
Что такое GEO и зачем это нужно
Появился новый термин — GEO (Generative Engine Optimization). Он обозначает оптимизацию сайта не для поисковых роботов, а для генеративных ИИ: ChatGPT, Gemini, Perplexity, Bing Copilot. Цель — попасть в ответ ИИ, даже если пользователь не переходит на сайт.
Классическое SEO направлено на клики. GEO — на цитирование. Разница принципиальная.
На AI-цитируемость влияют:
- структурированные данные (Schema.org)
- чёткие ответы на вопросы в тексте
- авторитетность домена
- упоминания бренда на внешних площадках
- правильная иерархия заголовков
- читаемость контента
geo-seo-claude — аудит одной командой
geo-seo-claude — это навык для Claude Code, который проводит комплексный аудит сайта по SEO и GEO-показателям. Достаточно запустить одну команду — и инструмент автоматически проанализирует ресурс.
Что проверяет:
- AI-видимость (Citability Score) — оценка от 0 до 100: насколько контент пригоден для цитирования ИИ. Анализирует структуру ответов, наличие FAQ, ясность формулировок.
- Доступ для AI-краулеров — проверяет, разрешён ли доступ для GPTBot, ClaudeBot, Google-Extended в файле robots.txt. Многие сайты блокируют их случайно.
- Schema-разметка — ищет схемы Organization, Article, FAQ, HowTo, Product и подсказывает, какие добавить.
- Упоминания бренда — выявляет ссылки и цитирования на внешних ресурсах. Для ИИ это сигнал авторитетности.
- Контент-аудит — оценивает читаемость, структуру заголовков, наличие ответов на типичные вопросы.
- PDF-отчёт — на выходе формируется HTML или PDF с оценками и конкретными рекомендациями.
После установки навыка в Claude Code его можно запустить через простой промпт. Система сама загрузит страницы, проанализирует robots.txt, разметку и структуру, а затем выдаст отчёт.
Что я нашёл на своём сайте
Провёл аудит нескольких проектов. Результаты оказались тревожными:
- robots.txt блокировал ClaudeBot и GPTBot — хостинг добавил это по умолчанию
- не было ни одной Schema-разметки — ни Organization, ни Article
- отсутствовали FAQ-секции — а именно их ИИ чаще всего цитирует
- заголовки шли с нарушением иерархии: H1 → H3 → H2 — для парсеров это непонятно
Отчёт дал чёткие рекомендации: добавить FAQ Schema, разблокировать AI-краулеры, внести Organization Schema с данными компании, перестроить заголовки. На исправления ушло два часа. Через неделю проверю, изменилась ли AI-видимость.
Ограничения
Проект пока молодой — 10 звёзд на GitHub, 9 коммитов. Это proof of concept, а не готовое enterprise-решение.
Работает только в Claude Code — нельзя запустить автономно.
Не заменяет профессиональный SEO-аудит. Хорошо находит технические ошибки, но не оценивает ссылочный профиль, конкурентов или поведенческие факторы.
GEO — новая и нестабильная сфера. Точные алгоритмы цитирования ИИ неизвестны. Рекомендации основаны на текущих наблюдениях и могут устареть.
Альтернативы
Если не хотите использовать Claude Code, есть другие варианты:
- Ahrefs / SEMrush — мощные платные инструменты для классического SEO
- Google Search Console — бесплатный мониторинг индексации и ошибок
- Schema.org Validator — проверка структурированных данных
- Ручной промпт в Claude или ChatGPT — можно загрузить HTML и попросить оценить AI-цитируемость
Преимущество geo-seo-claude в автоматизации и структурированном отчёте. Но для разовой проверки подойдёт и ручной анализ.