Вы когда-нибудь видели, как человека ловят на лжи на работе? Не на маленькой невинной, а на настоящей — на чём-то серьёзном, что он активно скрывал от тех, кому доверяли.
А теперь представьте: вместо увольнения с позором этот человек получает повышение.
Это история Сэма Альтмана.
Ноябрь 2023: переворот, который не состоялся
В ноябре 2023 года совет директоров OpenAI пришёл к выводу, что Альтману нельзя доверять. Официально — он «не был последовательно откровенен». По-человечески: он лгал.
Его уволили в пятницу. Но за следующие 72 часа всё изменилось.
Сотрудники подняли бунт. Две влиятельные фигуры Кремниевой долины — Рид Хоффман и Брайан Чески — начали активную кампанию по его восстановлению.
Хоффман, член совета директоров Microsoft, и Чески, близкий друг Альтмана и CEO Airbnb, обзванивали инвесторов, топ-менеджеров, ключевых игроков индустрии.
Microsoft даже предложила Альтману взять команду и перейти к ним. И вдруг стало ясно: настоящей власти у совета директоров не было.
Они капитулировали. К вторнику Альтман вернулся. Старый совет распустили. Новый — более сговорчивый — занял его место.
Он больше не просто CEO. Он стал императором. А императора нельзя уволить.
Я не припомню другой компании, где баланс сил так стремительно и бесповоротно сместился в пользу одного человека.
400 конфликтов интересов
Сэм Альтман предпочитает устанавливать правила сам, а не следовать им. До того как стать лицом «самой важной технологии в истории», он годами нарушал одно из фундаментальных правил бизнеса — избегать конфликта интересов. При этом публично заявлял, что его придерживается.
Журналистские расследования подтвердили: он лгал.
В 2023 году выяснилось, что он тайно контролировал фонд «OpenAI Startup Fund». Он был его единственным юридическим владельцем и генеральным партнёром. Фонд собрал 325 миллионов долларов. При этом:
- У OpenAI не было юридических прав на фонд
- Фонд финансировался партнёрами, включая Microsoft
- Альтман единолично решал, какие стартапы получат доступ к OpenAI
Кроме того, он владел долями более чем в 400 компаниях — через YC, Hydrazine и другие фонды. Когда Reddit заключил сделку с OpenAI, его акции выросли на 13%. Личная инвестиция Альтмана в 375 миллионов долларов в Helion Energy «удачно» совпала с переговорами о партнёрстве OpenAI с этой компанией.
Это — его типичный modus operandi. Так он действует, когда никто не смотрит.
Паранойя в совете директоров — с последствиями в реальном мире
До попытки увольнения бывший совет считал, что контролирует ситуацию. Они ошибались.
Но подозрения были. В Кремниевой долине интуиция — навык выживания.
Члены совета боялись Альтмана. Настолько, что вместо открытых обсуждений прибегали к конспиративным методам: исчезающие сообщения, самоуничтожающиеся письма. Следовали правилу разведки — сжечь после прочтения.
Серьёзные, богатые, влиятельные люди вели себя как подростки, нарушающие комендантский час, потому что были в ужасе от «зловещего Сэма».
У них были основания. Бывший член совета Хелен Тонер подтвердила: совет узнал о запуске ChatGPT — продукта, изменившего мир — из Twitter. Альтман даже не счёл нужным их проинформировать.
Когда она написала критическую статью, он захотел вывести её из совета. Чтобы добиться этого, он солгал коллегам, заявив, что и они требуют её ухода.
Он сфабриковал консенсус, чтобы устранить критика.
Этот паттерн — обман, хаос, манипуляции — Тонер назвала «характерной чертой» Альтмана. Другие сотрудники подтверждают: он так вёл себя ещё в Looped и Y Combinator.
Три компании. Один знаменатель: Альтман действует в условиях почти полного самоналоженного дефицита честности.
Сделка с Пентагоном: замена Anthropic
Альтман — мастер оказываться в нужном месте в нужное время. И не оставлять места конкурентам.
Когда Anthropic, основанная бывшими сотрудниками OpenAI, отказалась от контракта с Пентагоном на 200 миллионов долларов, причина была этической: правительство хотело использовать ИИ для массовой слежки за гражданами и управления автономным оружием.
Той же утром Альтман появился на CNBC и заявил, что полностью поддерживает позицию Anthropic. Что OpenAI придерживается тех же принципов.
Через несколько часов OpenAI объявила: она берёт этот контракт. Тот самый — с формулировкой «для любых законных целей», которую Anthropic сочла аморальной.
Альтман согласился на условия, которые, по его собственным словам, он не мог принять. Условия, схожие с теми, что легализовали массовую слежку АНБ, разоблачённую Сноуденом.
Реакция была мгновенной: количество удалений ChatGPT выросло на 295% за день. Anthropic вышла победителем в глазах общественности.
Но Альтману было всё равно. Он живёт по своим правилам.
Его объяснение: «Если мы правы — будем выглядеть гениями. Если нет — нас назовут торопливыми и неосторожными». Никакой ответственности. Только ставка на то, что победители пишут правила.
Правила больше не действуют
Все факты на столе: тайный фонд, ложь совету, контракт на слежку, поддержка автономного оружия.
Ничто из этого не повредило Альтману. Он остаётся во главе «самого дорогого стартапа в истории». Его по-прежнему считают визионером. Кумиром миллионов.
Он почти как Трамп — только пока не может посылать авианосцы. Хотя кто знает, может, и это ещё будет.
Когда речь о нём, нужно понимать одно: он создал новую парадигму. В ней масштаб видения настолько велик, а ставки — настолько экзистенциальны, что старые правила объявляются устаревшими.
Рынок, инвесторы, пользователи — многие это приняли.
Некрасивая правда: его успех — не только в таланте, но и в умении читать дух времени лучше других.
Возможно, так и есть. Но с этим трудно смириться.
Я не хочу жить в мире, где правила для всех нас устанавливает AGI, построенный под присмотром Альтмана.