Я — Артём, владелец продукта в Совкомбанке. Развиваю бренд-медиа банка, включая Совкомблоги и Халва Медиа. В нашей продуктовой команде, как и во многих других в финтехе, мы столкнулись с тем, что PM-ы тратят до 60% времени на рутину: документацию, согласования, уточнения, аналитику. А времени на работу с клиентом — катастрофически не хватает.
Проблема стала системной: рост портфеля продуктов опережал рост команды. Я решил собрать решение — ИИ-ассистента, который стал для нас полноценным продуктовым напарником. По сути, это один большой, но тщательно структурированный промпт, превращающий LLM в инструмент для реальной работы.
Архитектура промпта: собираем продуктового ассистента как конструктор
Я подходил к промпту как к мини-продукту. Он должен был:
- Понимать контекст: продукт, аудиторию, бизнес-цель.
- Иметь набор готовых «модулей» — задач, которые можно вызывать по запросу.
- Адаптироваться под роль пользователя: PM, топ-менеджер или новичок.
- Учитывать банковские ограничения: комплаенс, AML, ФЗ-152, фрод.
- Выдавать не текст ради текста, а структурированные артефакты — таблицы, чек-листы, шаблоны.
1. Роль и контекст (System Prompt)
Я задал жёсткую роль: «Ты — ИИ-ассистент для продуктовых менеджеров и бизнес-лидеров в банке. Помогаешь на всех этапах: от определения ценности до GTM, с фокусом на финтех».
Это критично. В банке нельзя предлагать «классные идеи» без учёта рисков и регуляторных требований. Ассистент должен работать в рамках системы, а не из вакуума.
2. Инициализация: сначала контекст, потом работа
Ассистент не отвечает «с потолка». Перед генерацией он требует контекст: что за продукт, кто клиент, какая цель, какие ограничения.
Мы называем это «Шаг 1: Инициализация». Без него — никак. Да, это требует дисциплины, но зато минимизирует галлюцинации и ошибки.
3. Библиотека задач (16 модулей)
Я выделил 16 частых продуктовых задач. Каждый модуль — это «промпт внутри промпта»: с входными данными, форматом ответа, чек-листами и типовыми ошибками.
Примеры модулей:
- Определение ценности — формулирует JTBD и бизнес-ценность с учётом комплаенса.
- Юнит-экономика — считает LTV, CAC, ROI, учитывая банковскую специфику (churn, стоимость фондирования).
- Дерево метрик — строит иерархию от North Star до операционных метрик.
- Анализ рисков — использует FMEA, добавляет AML, ФЗ-152, фрод-модели. Один из самых востребованных модулей.
- GTM-стратегия — генерирует месседжинг, каналы и сегментацию (например, через RFM).
Результат всегда структурирован: таблицы, списки, фреймворки. Никакой воды.
4. Адаптация под роль (PM / C-level / новичок)
Ассистент подстраивает ответ под пользователя:
- Для PM — тактические шаги: что сделать завтра, как описать в Jira, какие события в Amplitude.
- Для C-level — стратегия, ROI, P&L, риски, связь с общей стратегией банка.
- Для новичка — пояснение терминов, больше контекста.
Теперь ассистент говорит на языке каждого — это сделал его по-настоящему полезным.
5. Принцип «одного окна» и связанные задачи
После ответа ассистент не закрывается. Он предлагает 2–3 следующих шага и уточняет: результат подходит или нужно дорабатывать?
Например, после расчёта юнит-экономики он предложит:
- построить дерево метрик;
- приоритизировать гипотезы (RICE/ICE);
- упаковать всё в PRD.
Это создаёт ощущение непрерывного процесса, а не разрозненных запросов.
Как мы внедряли ассистента и почему это сработало
Просто дать команде промпт — бесполезно. Нужно внедрять постепенно. Мы прошли три этапа.
Этап 1: «Инженерная настройка»
Я взял топ-10 болезненных задач, проверил, как ассистент с ними справляется, и доработал промпт. Главное открытие: проблема не в модели, а в дисциплине.
Я зафиксировал правило: никаких выдуманных данных. Нет цифр — значит, нужно запросить или указать, где их взять (внутренний дашборд, витрина). В банке это критично.
Этап 2: «Продуктовое обучение»
Провёл воркшопы. Главный посыл: ассистент — не замена, а «вторая пара глаз». Он помогает структурировать, не забыть важное, ускорить путь к решению.
Этап 3: «Измерение результата»
Через месяц замерили эффект:
- Подготовка документов (PRD, GTM, риск-анализ) — минус 50% времени.
- Скорость вывода гипотез в разработку — выросла вдвое. То, что занимало до трёх дней, теперь укладывается в 4–5 часов.
- Ошибок в юнит-экономике — на 80% меньше. Формулы и логика стали едиными.
- Комплаенс-риски — стали реже. FMEA-модуль стал обязательным чек-листом.
ИИ не заменяет продактов. Он становится встроенным аналитиком, методологом и редактором. А мы получаем больше времени на главное: диалог с клиентом, проверку гипотез, принятие решений.
Но важно понимать: просто скопировать промпт — не сработает. Самое сложное — обучить ассистента на данных вашего продукта. Без этого он выдаёт общие фразы.
Ещё проблема — ограниченный контекст у LLM. В длинных диалогах ассистент «забывает» начало. Приходится напоминать, уточнять, подталкивать.
Мы рассматриваем это как пилотный проект и продолжаем его развивать.
Что дальше?
Мы работаем над агентом: ИИ будет сам выполнять задачи, а продакта пригласит только на валидацию. Наша цель — сэкономить ещё 50% времени.
Освободившиеся часы пойдут на исследование, инсайты и рост бизнеса. Потому что ассистент — всего лишь инструмент. А ценность создаёт человек, который понимает, зачем всё это нужно.