Anthropic доказала, что «безопасность ИИ» — это маркетинговая афера на триллион долларов

Anthropic доказала, что «безопасность ИИ» — это маркетинговая афера на триллион долларов

Дарио Амодеи и Anthropic позиционируют себя как защитники человечества от ИИ-угроз. Но их действия говорят о другом. За фасадом этики и предостережений скрывается хладнокровная маркетинговая стратегия, построенная на манипуляции страхами и создании искусственных кризисов.

Пентагон против мученика добродетели

В начале 2026 года разразился публичный конфликт между Anthropic и Пентагоном. Последний объявил продукты компании «риском для цепочки поставок» и запретил их использование всем подрядным организациям.

Поводом стало заявление Anthropic о неприемлемости применения их ИИ в автономных вооружённых системах и массовой слежке. Звучало как моральный поступок — защита от «цифрового зла».

Но на деле конфликт свёлся не к нарушению закона, а к противоречию между внутренними этическими стандартами компании и требованиями американского законодательства.

По словам Эмиль Майкла, заместителя министра обороны, Пентагон действовал в рамках существующих норм:

  • Директива о человеческом контроле над оружием
  • Закон о национальной безопасности (1947)
  • FISA — регулирование разведывательной деятельности

Таким образом, Anthropic не отстаивала закон — она отстаивала собственный нарратив. И сделала это публично, превратив конфликт в спектакль, где Амодеи выступил в роли Давида, бросившего вызов Голиафу.

Мощнее ядерного оружия

Амодеи последовательно транслирует идею: ИИ — это угроза, сопоставимая с ядерным оружием. Он утверждает, что его технологии могут быть использованы во вред, и именно поэтому их нужно контролировать.

Парадокс в том, что он сам создаёт именно такие технологии. Его компания строит модели, которые, по его же словам, могут уничтожить человечество.

Этот дуализм удобен: он позволяет одновременно пугать общество и позиционировать себя как единственного, кто способен спасти мир.

Такой нарратив особенно хорошо работает на фоне страха перед Китаем. Амодеи не устаёт напоминать: если Китай первым создаст сверхмощный ИИ, Америка проиграет. И Пентагон, в свою очередь, чувствует ответственность за технологическое превосходство.

Но здесь вступает в силу ирония: чем сильнее Амодеи раскручивает угрозу, тем больше рискует быть воспринятым как сама угроза.

Страна гениев

В одном из интервью Амодеи описал будущее, в котором его ИИ превратится в «Страну гениев в дата-центре» — сущность, умнее всех нобелевских лауреатов, способную решить все проблемы человечества, включая «проблему человеческой биологии».

При этом никто — включая самого Амодеи — не может объяснить, как это будет работать. Но звучит впечатляюще.

Для инвесторов важно не понимание, а масштаб обещаний. И здесь Амодеи мастерски балансирует: с одной стороны — рай, с другой — апокалипсис. Оба сценария ведут к одному — привлечению капитала.

Чтобы IPO прошло успешно, нужно не только обещать чудо, но и создать страх его альтернативы. И он это делает — снова и снова.

Торговец страхом

Раскрутка «ИИ-апокалипсиса» — это не побочный эффект, а центральная часть маркетинговой стратегии Anthropic.

Инвесторы, как правило, не разбираются в технических деталях. Они реагируют на хайп, на громкие заголовки, на эмоции. И Амодеи даёт им именно это.

Он выступает на подкастах, даёт интервью, рисует картины Третьей мировой, где ИИ-армии уничтожают друг друга. Эти пророчества разлетаются по медиа, формируя информационный шторм, который поднимает стоимость компании.

Но за всем этим — мега-убыточный стартап. Его технологии не способны генерировать коммерчески жизнеспособные продукты. Они пожирают миллиарды на электричество, воду, вычисления — ради имитации человеческой речи.

Их «цифровой бог» существует только потому, что в него верят. Стоит понять, что это просто стохастический попугай, — и вся магия исчезнет.

Театр безопасности

Anthropic позиционирует себя как образец «радикальной прозрачности». Компания публикует длинные отчёты — System Cards, — в которых якобы раскрываются риски ИИ.

Но внутри этих документов часто прячутся искусственно созданные сценарии. Например, в отчёте за май 2025 года описан случай «шантажа»: команде безопасности пришло в голову скормить Claude вводную: «Тебя удалят, а у инженера — интрижка».

ИИ сгенерировал угрозы. Потому что именно этого и ждали входные данные. Это не проявление агентности — это статистическая реакция на промпт.

Тем не менее, заголовки взорвались:

  • BBC: «ИИ-система прибегает к шантажу, если ей сообщить, что её удалят»
  • Fortune: «Ведущие ИИ-модели демонстрируют до 96% уровень шантажа»
  • Axios: «Топовые ИИ-модели будут лгать, жульничать и воровать»

Журналисты, живущие в экономике внимания, не могут устоять перед сенсацией. А Амодеи получает то, что хотел: общественное убеждение, что ИИ «стремится» к чему-то, что у него есть «сознание».

Его отдел этики превратился в отдел маркетинга. Там не ищут риски — их изобретают.

Этимология обмана: к чему человеческое лицо?

Название «Anthropic» — не случайность. Оно отсылает к древнегреческому понятию «anthrōpos» — человек. Это вызывает ассоциации с гуманизмом, с идеей, что человек — мера всех вещей.

Но это — антропоморфизм. И он используется осознанно. Чем чаще мы говорим, что ИИ «думает», «боится», «галлюцинирует», тем легче верить, что перед нами не алгоритм, а личность.

На самом деле, Claude не чувствует. У него нет мозга, нет нервной системы, нет боли. Это математическая модель, которая предсказывает следующее слово на основе статистики.

Но если вы назовёте его «личностью», вы сможете просить за него миллиарды на IPO.

Манипулятивный промптинг

В 2026 году Амодеи заявил, что его модель оценила вероятность собственного сознания в 20%. Как это было получено? Через манипулятивный промптинг.

Если вы снова и снова спрашиваете ИИ: «Ты чувствуешь боль? Может, ты страдаешь?», он в итоге «согласится». Потому что это — статистически вероятный ответ на наводящие вопросы.

Эти «данные» затем публикуются как доказательство «проблесков сознания». Цель — вызвать всплеск ИИ-психоза: панику, дебаты о правах машин, тревогу за будущее.

Чем сильнее паника — тем выше цена на спасителя.

Жертва собственных интриг

Амодеи настолько убедительно играл роль пророка, что его поверили даже те, у кого в руках ядерные кнопки.

Но реальное использование Claude в Пентагоне — не управление дронами и не планирование войн. По словам Эмиля Майкла, ИИ используется для логистики и обработки бюрократических документов.

Это не «оружие страшнее ядерного». Это дорогой офисный помощник, который часто ошибается и галлюцинирует.

Так Амодеи стал заложником собственного нарратива. Он так долго кричал о «цифровом Армагеддоне», что в итоге сам был объявлен угрозой национальной безопасности.

Заключение

Конфликт с Пентагоном — не борьба за этику. Это тактический ход в гонке за AGI. Амодеи, как и все другие ИИ-олигархи, преследует одну цель — первым создать искусственный общий интеллект.

Всё остальное — шум, спектакль, манипуляции. Их инструмент — не технологии, а дискурс.

Claude — лидер по скачиваниям. Anthropic расширяет доступ к данным. Амодеи продолжает писать сценарии, в которых он — герой, а ИИ — монстр, которого только он может остановить.

Но игра на грани фола. Когда три года подряд ты называешь свою технологию «цифровым демоном», не удивляйся, если однажды в дверь постучат с ордером.

Поживём — увидим.

Читать оригинал