Я использую ИИ каждый день и устал от одного — результат непредсказуемый. Час итераций, полстраницы промпта с ролями, «step by step», «think carefully» — и в итоге всё равно приходится переписывать самому. Длина не помогает, магические слова не работают. Промпт — это не молитва. Проблема в том, что ты не понял, что именно хочешь получить.
После часа правок задаёшь себе вопрос: а что я вообще делегировал — задачу или надежду, что «само сложится»?
Раньше думать было дешевле, чем делать
Раньше выполнение стоило дорого: час дизайнера, день аналитика, неделя разработки. Поэтому час совещания с постановкой задачи казался копейками. Сейчас наоборот: пять вариантов анализа за 30 секунд, а обсуждение задачи — это час пятерых человек. Думать стало дороже, чем делать.
И тут включается вторая проблема. Раньше плохую постановку задачи ловили на входе — дизайнер переспрашивал, аналитик уточнял, разработчик возвращал с вопросами. ИИ не уточняет. Он берёт твой запрос, додумывает контекст и возвращает гладкий ответ — не про твою задачу.
Когда индустрия говорит, что ИИ ускорил работу в десять раз, хочется уточнить — какую именно? Производство годного результата он не ускорил. Он ускорил производство правдоподобного.
Карта задачи
Решение — не изобретение, а базовый фреймворк из бизнес-анализа: As-Is, To-Be, Gap. Тот же подход, что используется при написании ТЗ и проектировании процессов. Я применил его к постановке промпта.
Четыре вопроса — до того, как открыл чат:
- Вход. Что у меня уже есть? Данные, документы, наблюдения, контекст. Не выписал — ИИ додумает.
- Этапы. Какие шаги от входа до результата? Не «анализ», а конкретно: собрать, структурировать, сравнить, сделать выводы. «Проанализируй» — это не шаг, это ожидание.
- Выход каждого этапа. Что я получу после каждого шага? Таблицу, список, текст с заданной структурой. Не описал — этап непонятен.
- Финальный результат. Как выглядит готовая работа? Как я пойму, что она готова? Нужен критерий приёмки, а не ощущение «вроде ничего».
«Проанализируй конкурентов» — это не задача. Это просьба к Деду Морозу.
Пример:
- Вход: пять компаний, ссылки, наша гипотеза о позиционировании, заметки с продаж.
- Этапы: собрать факты, сравнить, найти пустые сегменты, оценить пригодность.
- Выход: таблица в markdown, матрица пересечений, список белых пятен с обоснованием, оценка по каждому.
- Финал: документ из четырёх блоков с приёмкой на каждом шаге.
Теперь вместо одного большого промпта — четыре, по одному на этап. Это конвейер с контрольными точками. Не монолог, а процесс.
Чтобы не держать всё в голове, я собрал эту логику в пскилл для Claude. Он работает как пайплайн из семи этапов, каждый из которых закрывает типовую дыру, через которую утекает время.
Что под капотом
Этап -1: валидация запроса. Скилл определяет: нужен ли промпт для повторного использования или одноразовый результат — это разные задачи. Здесь же — детектор multi-output: если на выходе нужно ≥3 независимых варианта, активируется отдельная подсистема, потому что обычный генератор сворачивает всё в один шаблон с разными обёртками.
Этап 0: As-Is → To-Be → Gap. Явная структура: что есть, как должно быть, что между ними. Если хоть одна часть не заполнена — скилл задаёт прямые вопросы и не идёт дальше.
Этапы 1–2: скоринг полноты и уточняющие вопросы. По чек-листу из восьми элементов (цель, аудитория, формат, тон, ограничения, контекст и др.) оценивается, что уже есть. Если 0–1 элемента — идёт расширенное интервью, если 4–5 — пропускает. Вопросы — максимум четыре, всегда с вариантами, без open-ended.
Этап 2.5: Confirmation Gate. Ключевая часть — стоп-ворота. Перед генерацией скилл показывает структурированное резюме: As-Is, To-Be, Gap, формат, аудитория, ограничения. И ждёт явного «да». Без подтверждения — никак.
Здесь решается главная проблема всех ИИ-инструментов — они не уточняют. Стоп-ворота превращают монолог в диалог. Ты видишь, как ИИ понял задачу — до результата, а не после. Карта задачи — это идея. Confirmation Gate — механизм, который заставляет её работать.
Этап 3: структурирование по CRISP. Финальный промпт собирается по фреймворку: Context-Role-Instructions-Style-Parameters, в XML-разметке. Почему XML? Anthropic в своей документации указывает, что Claude точнее парсит структурированный текст, чем сплошной.
Этапы 4–6: оптимизация и валидация. Применяются конкретные приёмы: жёсткие негативные ограничения («NO generic advice, NO obvious statements»), few-shot (1–3 примера), Chain of Thought — только где нужен, и убран, где мешает (например, при креативе или фактах). Промпт проверяется по чек-листу: 5-second test, полнота, действенность, эффективность, проверяемость.
Есть и механизм итераций, если результат не устроил — gradient approach из статьи Pryzant et al. «Automatic Prompt Optimization». Логика проста: identify failure mode → generate specific feedback → update prompt. Например, вывод оказался слишком общим — фикс не «сделай лучше», а «добавь требование: минимум 2 конкретные метрики, общие фразы без цифр = fail». Промпт корректируется не «ощущениями», а явным правилом против конкретной ошибки.
Что снаружи скилла
Я ничего не изобретал. CRISP и XML — из Anthropic Prompt Engineering Guide. As-Is → To-Be — база консалтинга. Confirmation Gate — паттерн из DSPy (Стэнфорд). Gradient approach — Pryzant et al. Skill-формат — Anthropic. Я просто собрал это в одну рабочую конструкцию вокруг карты задачи.
Если скажете «это всё уже было» — вы правы. В этом и суть: рабочее редко бывает новым.
Скилл — это костыль для привычки. Пользуйся, пока карта задачи и стоп-ворота не станут автоматическими. Когда ты сам начнёшь спрашивать ИИ: «Покажи, как ты понял задачу, прежде чем делать» — скилл больше не понадобится.
В этом и итог. ИИ — не кнопка «бабло». Это рычаг. Он умножает то, что ты в него закладываешь. Заложишь продуманную постановку — умножит её. Заложишь «ну ты разберись» — умножит и это, только в виде гладкого текста, который выглядит как ответ.
Мы все умеем ставить задачи. Делаем это годами — для подрядчиков, в спринтах, в брифах. Появление ИИ почему-то сбило этот навык: кажется, что раз модель умная, можно говорить с ней через ощущения, а не через ТЗ. Не работает.
Карта задачи — это не новая методология. Это напоминание о привычке, которую мы знаем, но забываем применить, когда чат слишком быстро отвечает.
Так что вопрос в начале — ты делегируешь задачу или надежду — это рабочий тест. Если до промпта не отвечаешь на четыре вопроса, ты пишешь не ТЗ, а молитву. И ИИ не виноват, что она не сбылась.