66% руководителей в США заявляют, что не наняли бы кандидата без навыков работы с ИИ. 71% отдают предпочтение менее опытному специалисту с навыками ИИ, а не более опытному — без них. Такие данные приводили отчёты Microsoft и LinkedIn ещё в 2024 году.
При этом OpenAI в исследовании «How people use ChatGPT» отметила: «большинство пользователей использует инструмент плохо». 73% запросов сформулированы бытовым языком, который нейросети понимают буквально — и тогда они ведут себя как «глупая жестянка».
Мы проанализировали научные исследования в области машинного обучения и собрали инструкцию, как писать промпты правильно и оставаться востребованным, несмотря на конкуренцию с ИИ.
Ошибка №1. Запрос без контекста
Что происходит
Пользователь пишет: «Напиши пост в LinkedIn». Модель не знает, кто перед ней — директор по логистике, HR, консультант или основатель стартапа. Она не понимает аудиторию, контекст или желаемый тон. В такой ситуации LLM почти всегда выдаёт усреднённый текст — тот самый «AI-стиль», который узнаётся с первых строк.
Что говорят исследования
В работе «The Prompt Report» Шульхоффа и соавторов подчёркивается: качество ответа зависит не только от инструкции, но и от контекста — роли, примеров, ограничений, формата и in-context данных.
Исследование Chroma Research «Context Rot» (июль 2025) подтвердило: модели используют длинный контекст неравномерно. Качество ответа падает рывками, а не плавно — и по-разному у разных моделей, включая GPT-4.1, Claude 4, Gemini 2.5 и Qwen3. Длинный промпт сам по себе не улучшает результат — иногда он его ухудшает.
Плохой промпт: «Напиши пост в линкедин про ИИ».
Хороший промпт: «Я — директор по цифровой трансформации в российской логистической компании (штат 2000 человек, автопарк). Пишу пост в LinkedIn для аудитории топ-менеджеров промышленности. Тезис: ИИ-агенты в логистике экономят меньше, чем обещают вендоры, но один конкретный кейс у нас сработал — автоматизация классификации входящих документов от перевозчиков. Срезало 40% рутины у диспетчеров. Пост — 150 слов, тон сдержанный, без восклицаний, без слов "революция" и "прорыв", без эмодзи. В конце — вопрос к аудитории. Вот ссылки на мои предыдущие посты для понимания стиля: [вставить]».
Ошибка №2. «Представь, что ты…» — устаревший ритуал
Что происходит
Многие до сих пор начинают промпт с фразы: «Ты — профессор Гарварда / senior-разработчик / копирайтер с 20-летним опытом». Этот совет был актуален в 2023 году.
Что говорят исследования
Как пояснил Шульхофф в интервью 2025 года, ролевой промпт слегка влияет на тон и стиль, но почти не меняет корректность ответа.
Почему так
Современные модели пост-тренируются на высокое качество по умолчанию. В 2023 году модель была «сырым текстовым предсказателем», и фраза «ты — эксперт» реально сдвигала вероятности в сторону более техничного текста. В 2025–2026 году этот эффект почти незаметен: модель и так отвечает как эксперт, если вопрос сформулирован точно.
Что работает вместо роли
Указание перспективы и фокуса: не «ты — финансовый аналитик», а «проанализируй этот портфель с точки зрения толерантности к риску и долгосрочного роста».
Плохой промпт: «Ты — опытный SMM-щик с 15-летним стажем, работавший с крупнейшими брендами. Придумай мне контент-план на месяц».
Хороший промпт: «Составь контент-план на октябрь для Telegram-канала B2B-компании в сфере промышленной автоматизации. Аудитория — главные инженеры заводов 40–55 лет. Цель канала — лидогенерация через демонстрацию экспертизы. 12 постов: 4 разбора кейсов (без маркетинговых клише), 4 поста с новостями отрасли с моим комментарием, 2 образовательных поста, 2 анонса мероприятий. Каждый пост — 80–150 слов. Избегай слов: "уникальный", "инновационный", "революционный"».
Ошибка №3. «Думай пошагово» на reasoning-модели — уже вред, а не польза
Что происходит
Совет «добавь let's think step by step» был популярен в 2023–2024 годах. Пользователи до сих пор используют его даже в GPT-5 и Claude с включённым режимом рассуждений.
Что говорят исследования
Работа Google «Large Language Models are Zero-Shot Reasoners» (май 2022) сделала фразу «Let’s think step by step» мемом: она действительно улучшала результаты на задачах логики для моделей того поколения. Но это был нюанс развития LLM, а не универсальный закон.
К середине 2025 года картина изменилась. В исследовании Wharton на датасете GPQA Diamond (198 вопросов уровня PhD по биологии, физике и химии) проверили Chain-of-Thought (CoT). Для «неризонинговых» моделей прирост был умеренным: Gemini 2.0 Flash — +13,5%, Sonnet 3.5 — +11,7%, GPT-4o-mini — +4,4% (статистически незначимо). Для reasoning-моделей выгода почти исчезла: o3-mini и o4-mini прибавили всего 2,9–3,1%, но ответы стали на 20–80% медленнее. То есть «думай пошагово» всё чаще покупает не качество, а задержку.
Плохой промпт (на reasoning-модели): «Давай подумаем пошагово. Сначала проанализируй рынок, потом выяви тренды, потом предложи стратегию. Думай медленно и внимательно. Перепроверь каждый шаг».
Хороший промпт (на reasoning-модели): «На основе [прикрепил отчёт Nielsen по рынку FMCG РФ Q3 2025] выдели три тренда, которые повлияют на стратегию дистрибуции нашей кондитерской фабрики в 2026. Критерий значимости — тренд должен затрагивать минимум 15% оборота категории».
Ошибка №4. Примеры сильнее описаний, но их никто не даёт
Что происходит
Пользователи объясняют модель словами: «цепляющий, но не кликбейтный», «в деловом стиле». Модель понимает приблизительно.
Что говорят исследования
Few-shot prompting — техника, при которой дают 2–5 примеров в формате «вход → выход». Это помогает модели понять не только задачу, но и нужный способ ответа. Примеры буквально фиксируют траекторию: тон, формат, стиль, критерии ошибки.
Плохой промпт: «Напиши 5 заголовков для статьи про ИИ в логистике. Пусть будут цепляющие, но не кликбейтные».
Хороший промпт: «Напиши 5 заголовков для статьи про ИИ в логистике. Стиль — как в этих трёх примерах с моего сайта:
- "Мы внедрили ИИ в сортировку 6 месяцев назад. Вот что реально изменилось"
- "Почему автоматизация склада окупается не за год, как пишут, а за три"
- "Что говорят водители о диспетчер-боте: три претензии и одна похвала" Общие признаки: конкретика, честность, отсутствие слов "революция", "прорыв", "инновация". Первое лицо множественного числа или прямая цитата. Длина — 8–14 слов».
Ошибка №5. «Не пиши...» — плохая формулировка (но с важной оговоркой)
Что происходит
Пользователи пишут: «Только не пиши шаблонно», «не используй слово "уникальный"», «не делай списков». Часто модель игнорирует запреты.
Что говорят исследования
Составители Prompt Engineering Guide доказали: для текстовых LLM (ChatGPT, Claude) негативные инструкции работают частично. «Пиши короткими абзацами» работает лучше, чем «не пиши длинные абзацы».
Но это не абсолют. В технических задачах негативные инструкции эффективны: «Не включай персональные данные», «Не выдумывай источники, если не уверен» — модель следует им.
Плохой промпт: «Напиши статью. Не делай её скучной, не используй канцелярит, не лей воду, без списков, не делай длинных предложений».
Хороший промпт: «Напиши статью в разговорном стиле, с короткими предложениями (средняя длина — 10–12 слов). Используй конкретные примеры и цифры. Формат — сплошной текст абзацами, без буллитов. Целевой объём — 600 слов».