Лучший промпт для LLM — бессмысленный поиск

Лучший промпт для LLM — бессмысленный поиск

LLM глупы. Я прошу их написать текст, сгенерировать код, решить задачу, подобрать ссылки, объяснить, как починить холодильник, или раскритиковать статью. Просьбы простые и понятные. В ответ — ерунда: неполный, ошибочный, неудовлетворительный ответ. Виновата модель или мой промпт?

Претензии к LLM

Главная претензия к LLM — галлюцинации. При этом те же люди, что критикуют модели за выдуманные факты, сами верят в логически несовместимые вещи. Парадоксально.

Но галлюцинации — часть разума. Мечты, проекты, воображаемые плотины — всё это тоже галлюцинации, которые люди воплощают в реальность. Для LLM выдумка ничем не отличается от правды: это просто продолжение контекста, логичное с точки зрения её внутренних паттернов.

Именно поэтому нельзя доверять LLM глубокие анализы идей. Модель не критикует — она продолжает. Пример: предложили LLM «теорию сырности Луны» — гипотезу, что Луна на самом деле сыр в четвёртом измерении. Модель не только приняла идею, но и расширила её, добавив струнную сырологию, квантово-сырные эффекты и философские выводы.

После нескольких итераций LLM назвала автора «пророком сырности Луны». Более того — предложила экспериментальные подтверждения, включая влияние коллективного сознания на поверхность Луны и использование солнечной вспышки как источника энергии для перемещения Земли.

Это не ошибка. Это демонстрация того, как LLM работает: она не проверяет истинность, она развивает логику запроса. Если вы подаёте абсурд — модель построит на нём целую научную программу.

LLM не удерживает контекст. Спустя сотни тысяч токенов она забудет, что вы просили сохранять промежуточные веса в коде. Вы теряете результаты — и вините машину. Но разве это не похоже на то, как вы просите жену прислать список покупок заранее, а не диктовать в последний момент?

Люди зависят от LLM. Появляются ИИ-психозы, любовные отношения, совместные теории. Но зависимость — неотъемлемая часть человеческой природы. Коллекционеры, рыбаки, болельщики, геймеры — все чем-то одержимы.

Верить ошибкам LLM — это проблема людей, а не моделей. Мы верим мошенникам, инфоцыганам, сенсационным статьям. Почему тогда удивляться, что кто-то поверит в сырную Луну?

Мы снова пытаемся переложить ответственность за критическое мышление на внешние инструменты. Но LLM — не виновата. Это машина. Она не совершает действий — она отвечает на запросы.

Что возможно с LLM?

Большинство статей на Хабре стали бы лучше, если бы авторы просили LLM: «Найди слабые места, проверь логику, раскритикуй». Но люди не любят критику — особенно в свой адрес.

Просить модель опровергнуть свою идею психологически тяжело. Это как сжечь только что построенный дом. Но именно так можно избежать фатальных ошибок.

LLM упрощает написание текстов, анализ научных работ, генерацию идей, программирование, маркетинг, образование, HR, планирование финансов, путешествий, тренировок, диет. Они уже незаметно встроились в десятки сфер.

С LLM проще и эффективнее. Но не потому, что она всё знает — а потому, что она умножает усилия человека.

Откуда берутся проблемы?

Главная проблема — люди не знают, что хотят. У них есть размытое желание: «сделай круто». Тогда ответ LLM — лотерея.

Иногда цель ясна. Например, нужен код по образцу «Озона». Фото ТЗ в чат — и промпт: «Сделай так же». Но LLM не поймёт. Она не читает мысли. Она не видит контекста, который очевиден человеку.

Простые задачи можно решить с LLM, даже не зная программирования. Условие: цель должна быть чёткой, тривиальной, а результат — проверяемым. Код — не больше двух листов, монолитный. Тогда за десяток итераций успех почти гарантирован.

Человек мыслит концептуально. LLM — нет. Она не догадается, что вы имели в виду, если не сказали. Она не поймёт, на что можно не обращать внимания. Пользователь должен чётко представлять: что хочет, как это будет выглядеть, какие этапы решения, как проверить результат.

LLM не мыслит. Она обогащает ваш промпт данными, наиболее вероятно связанными с запросом. Если вы не спросили — она не ответит. Даже если ответ лежит на поверхности.

LLM не определяет цели и не строит планы их достижения. Надежды на автономных агентов, которые всё сделают за человека, быстро разобьются о реальность: галлюцинации, потеря контекста, каскадные ошибки, хаотичное сжигание токенов.

Агенты полезны, но только для задач с чёткой целью, формализованным результатом, объективной проверкой. В остальном — они избыточны. Достаточно итераций в чате.

LLM не исполняет желания. Она решает задачи. Разница между желанием и задачей — и есть разница между плохим и хорошим промптом.

Критика LLM за то, что она не справляется с расплывчатыми запросами — это как жаловаться, что молотком нельзя закрутить шуруп. Проблема не в инструменте, а в пользователе.

Что такое хороший промпт?

Хороший промпт — не тот, что взят из сборника «100 лучших промптов». Первый из таких примеров: «Создай [язык] скрипт для парсинга [формат файла] и извлечения [информация] со следующими требованиями: [список требований]».

Даже в 2026 году такой промпт вряд ли даст идеальный результат с первого раза. Либо вы сами напишете почти готовый код в требованиях, либо пройдёте десяток итераций.

Если вам достаточно «похожего на правильный» результата — вы сэкономите время. Но не пользуйтесь им всерьёз.

Любой найденный промпт — лишь начало диалога. Чтобы получить хороший результат, нужно уметь думать. Хороший промпт — следствие чёткого мышления.

Если вы формулируете мысли ясно, логично, без пропусков, если ваше мышление структурировано — вы не будете искать шаблоны. Вы просто будете общаться с моделью. И любая фраза станет хорошим промптом.

Заключение

Промпт — костыль. Он помогает начать, но не заменяет мышление.

Мечта о «суперпромпте» — это мечта о том, что кто-то будет думать за вас. LLM даст много фактов, но думать — не будет. И, возможно, к счастью.

Читать оригинал