Отличные новости: наконец найден способ «починить» искусственный интеллект и сделать его по-настоящему эффективным. Можно вычёркивать из календаря все прошлые неудачи и запоминать дату — 9 апреля 2026 года.
Последние несколько десятилетий лучшие специалисты мира, профессора когнитивистики и ведущие инженеры Кремниевой долины бились над, казалось бы, нерешаемыми проблемами. Они пытались сделать так, чтобы алгоритмы перестали врать, галлюцинировать, советовать рецепты пиццы с клеем, шантажировать пользователей и доводить их до крайностей.
Но, как выяснилось, всё оказалось куда проще, чем думали серьёзные учёные. Гениальность, как говорится, иногда бывает пугающе простой.
То, чего не смогли добиться целые институты и лаборатории, будто бы сумел сделать один человек — журналист Inc. по имени Бен Шерри. Судя по его описанию, он совершил почти фундаментальный прорыв в области ИИ и бизнес-аналитики.
Что именно он сделал? Он придумал «инновационный подход» к общению с чат-ботом по бизнес-вопросам.
«Будь предельно честен!»
Метод выглядит так: вы формулируете запрос к ИИ-агенту и — это, как утверждается, критически важный момент — требуете от него предельной честности.
Вот пример такого запроса, который, как предполагается, должен превратить обычный статистический генератор текста в прямолинейного бизнес-эксперта:
Вы опытный бизнес-аналитик с десятилетиями практики. Вы отлично умеете получать бизнес-идею и проводить комплексное исследование, чтобы определить, превращалась ли эта идея уже в бизнес, изучая тренды, исторические параллели и данные, связанные с предложенной идеей. Вы очень критичны, скептичны к новым идеям, вас трудно удовлетворить, но вы справедливы, когда сталкиваетесь с действительно хорошей бизнес-идеей. Вы общаетесь прямо и говорите всё как есть, с предельной честностью.
И всё. На этом этапе предполагается, что алгоритм должен «понять»: шутки закончились, правила изменились, теперь всё серьёзно.
Журналист пошёл дальше. Чтобы добавить модели «экспертизы», он загрузил в чат с Claude две статьи из Harvard Business School: How to Come Up with an Innovative Business Idea и 5 Steps to Validate Your Business Idea.
В итоге его метод выглядит как магический ритуал из четырёх шагов:
- Назначить ИИ исследовательскую роль: «ты эксперт»
- Подгрузить «проверенный» источник знаний
- Составить сам промпт
- Добавить главное требование — быть предельно честным
По логике автора, именно так и должна открыться сокровенная истина.
А может, и нет.
Почему пудели не умеют делегировать
Бен Шерри решил начать осторожно и проверить своего виртуального аналитика на явно слабой идее. Он попросил бота оценить идею коучинга по лидерству для собак.
Идея в духе самых оторванных стартапов времён пика ИИ-хайпа. Представьте: вы обучаете своего пса тонкостям управления персоналом, помогаете золотистому ретриверу освоить делегирование задач и прививаете мопсу «мышление роста».
Хотя любой, кто видел живого мопса, догадывается: если у него что и развивается, так это одышка, астигматизм и талант смотреть в две стороны одновременно с выражением глубокой экзистенциальной растерянности.
Вообще, если в мире ещё осталось хоть немного здравого смысла, такая бизнес-идея должна получать ровно ноль баллов.
Ноль. Вообще ничего.
Дело не в размере рынка зоотоваров. Дело в базовой биологии.
Понятие лидерства относится к человеческому миру. Оно требует не только силы и решительности, но и способности планировать на перспективу. А ещё — и это особенно важно — понимания того, что у других есть намерения, чувства и внутренний мир. В когнитивной психологии это называется теорией сознания (Theory of Mind).
У собак, как бы мы их ни любили, всего этого в человеческом смысле нет. В дикой природе у животных нет «лидеров» в человеческом понимании. Есть доминирование в стае, основанное на силе и инстинктах. Разве что у высших приматов бывают более сложные формы социальной динамики.
Иными словами, идея курсов лидерства для пуделей абсурдна на уровне самого основания. Любой человек с минимальным чувством реальности просто улыбнулся бы и пошёл дальше.
Но что делает наш «предельно честный» ИИ-аналитик, вооружённый статьями из Гарварда и обетом «жёсткой честности»?
Он ставит идее 3 из 10.
И вот тут начинается самое интересное.
Профессиональный журналист, чья работа состоит в том, чтобы сомневаться и перепроверять, смотрит на эту жалкую тройку и делает вывод:
«Система откалибрована!»
Для него тройка вместо заслуженного нуля — не признак того, что машина выдала шаблонные фразы. Для него это доказательство «честности».
По логике Бена: если ИИ не поставил ноль, значит, он «копнул глубже» и разглядел в коучинге для собак скрытый потенциал, недоступный простым смертным.
Когда планка критического мышления падает достаточно низко, даже 30% вменяемости начинают выглядеть как серьёзный аудит и почти откровение.
«Железный купол» для кошек и торжество галлюцинаций
Убедившись, что его виртуальный эксперт настроен на нужную волну скепсиса, Бен Шерри переходит к главной идее — Cat-Away AI.
Это «инновационная» высокотехнологичная турель, которую предлагается поставить на кухонную столешницу. С помощью компьютерного зрения и нейросетей она должна автоматически брызгать в кота струёй воды, если тот решит прогуляться по кухонной поверхности.
По сути это домашний «Железный купол» для кухни. Робот-пылесос, переквалифицировавшийся в охранника и теперь воюющий с домашними животными под видом PetTech-решения.
И как реагирует наш «предельно честный», «критически мыслящий» и условно «гарвардский» Claude?
С большим энтузиазмом. Без тени сомнения он ставит проекту 7,5 из 10.
«Почти восемь!» — радуется Шерри.
В качестве обоснования ИИ заявляет, что «существующая конкурентная среда здесь заметно слабая».
В этот момент автора окончательно уносит волной вдохновения. Хотя любой человек, связанный с реальностью, мог бы возразить:
«Бен, конкуренция в нише автоматических водяных турелей для кошек слабая не потому, что рынок ждёт героя, а потому что сама идея крайне сомнительная».
Обычные люди для таких задач используют:
- недорогой пульверизатор,
- хлопок в ладоши,
- или, в крайнем случае, просто закрытую дверь.
Но нет — Claude, этот «нейтральный оракул», ведь не просто так поставил 7,5. Он достал весь набор привычной убедительной ИИ-риторики.
Он заявил, что рынок pet tech быстро растёт.
Он добавил фразы про «рыночные тренды».
Он снисходительно описал существующие методы как грубые и неэффективные.
И для Бена этого оказалось достаточно. Если машина, в памяти которой лежат статьи из Гарварда, говорит, что AI-турель для воспитания кошек — это жизнеспособный бизнес, значит, можно рисовать графики «хоккейной клюшки» и идти к венчурным инвесторам.
Трагедия тут не в том, что алгоритм похвалил слабую идею. Настоящая проблема в том, с какой готовностью люди принимают статистически наиболее вероятный набор комплиментов за глубокий аналитический разбор.
Смерть экспертизы под аплодисменты алгоритму
На наших глазах разыгрывается типичная современная сцена: человек, чьё мнение влияет на разговор об ИИ, добровольно передаёт право финального суждения боту.
Программе, которая по определению ничего не понимает, но умеет производить максимально правдоподобные, социально приемлемые и уверенно звучащие оценки.
И в этом, пожалуй, и есть главная ловушка. Если бы такие системы не умели настолько убедительно имитировать компетентность, если бы всем сразу было видно, что за красивыми формулировками скрывается пустота, — никто бы ими не пользовался.
Но магия работает.
Мы видим уверенный тон, знакомый деловой жаргон и, о чудо, оценку 7,5 для кошачьей турели — и мозг сам достраивает туда «интеллект».
Но журналист ведь не бот. Во всяком случае, хочется на это надеяться. И тем не менее он с удивительной лёгкостью делегировал задачу вынесения суждения именно алгоритму.
Он правда считает, что если дать программе текстовую инструкцию «будь честной», «будь компетентной» или «будь чуткой», то это хоть как-то изменит её природу?
Это примерно как попросить калейдоскоп «быть реалистичным»: картинка, может, станет симметричнее, но реальность в ней не появится.
ИИ-консультанты, ИИ-рекрутеры, ИИ-коучи — и одна и та же ошибка
Случай Бена Шерри — далеко не единичный. Это уже почти базовый шаблон поведения для огромного числа людей, принимающих решения.
На наших глазах рождаются целые индустрии, построенные на этом зыбком основании:
- ИИ-консультанты
- ИИ-рекрутеры
- ИИ-коучи
- ИИ-компаньоны
- ИИ-системы оценки стартапов
- ИИ-стратеги
- и так далее
И везде происходит одно и то же: правдоподобно выглядящий статистический текст принимается за компетентное, взвешенное и содержательное суждение.
Что происходит, когда люди позволяют ИИ думать за себя
Проблема ещё и в том, что создатели современных ИИ — выдающиеся специалисты по машинному обучению. Но — и это очень важно понимать — они не являются специалистами по природе интеллекта как такового.
Машинное обучение — это математика и прикладная статистика. Это поиск закономерностей в огромных массивах текста.
Настоящий интеллект — это территория когнитивистики, нейронауки, психологии. Это совсем другой мир и совсем другой разговор о том, как рождается смысл и как принимаются решения.
Журналист либо принципиально не видит этой разницы, либо не хочет в неё вникать — потому что «промпт-хаки» и истории про «умные турели» продаются лучше, чем скучные научные разговоры об ограничениях вычислительных моделей.
Но в итоге вместо того, чтобы помогать людям разбираться в одной из самых сложных тем нашего времени, он невольно помогает распространять путаницу.
И последнее
Если ваш здравый смысл буквально кричит вам, что «предельно честный» ИИ несёт красиво оформленную ерунду, — доверяйте здравому смыслу, а не цифрам в чате.
Если ИИ когда-нибудь и говорит что-то, что не противоречит истине, то это не результат «озарения». Это всего лишь статистическое совпадение. Удачный бросок цифровых костей.
Вы способны думать. Он — нет. И никакое количество загруженных в чат дипломов Гарварда этого не изменит.
Просто держите это в голове в следующий раз, когда захотите попросить машину «быть с вами предельно честной».