Исчезающие сообщения, паранойя и переворот: что на самом деле произошло в OpenAI

Исчезающие сообщения, паранойя и переворот: что на самом деле произошло в OpenAI

Вы когда-нибудь видели, как человека ловят на лжи на работе? Не на маленькой невинной, а на настоящей — на чём-то серьёзном, что он активно скрывал от тех, кому доверяли.

А теперь представьте: вместо увольнения с позором этот человек получает повышение.

Это история Сэма Альтмана.

Ноябрь 2023: переворот, который не состоялся

В ноябре 2023 года совет директоров OpenAI пришёл к выводу, что Альтману нельзя доверять. Официально — он «не был последовательно откровенен». По-человечески: он лгал.

Его уволили в пятницу. Но за следующие 72 часа всё изменилось.

Сотрудники подняли бунт. Две влиятельные фигуры Кремниевой долины — Рид Хоффман и Брайан Чески — начали активную кампанию по его восстановлению.

Хоффман, член совета директоров Microsoft, и Чески, близкий друг Альтмана и CEO Airbnb, обзванивали инвесторов, топ-менеджеров, ключевых игроков индустрии.

Microsoft даже предложила Альтману взять команду и перейти к ним. И вдруг стало ясно: настоящей власти у совета директоров не было.

Они капитулировали. К вторнику Альтман вернулся. Старый совет распустили. Новый — более сговорчивый — занял его место.

Он больше не просто CEO. Он стал императором. А императора нельзя уволить.

Я не припомню другой компании, где баланс сил так стремительно и бесповоротно сместился в пользу одного человека.

400 конфликтов интересов

Сэм Альтман предпочитает устанавливать правила сам, а не следовать им. До того как стать лицом «самой важной технологии в истории», он годами нарушал одно из фундаментальных правил бизнеса — избегать конфликта интересов. При этом публично заявлял, что его придерживается.

Журналистские расследования подтвердили: он лгал.

В 2023 году выяснилось, что он тайно контролировал фонд «OpenAI Startup Fund». Он был его единственным юридическим владельцем и генеральным партнёром. Фонд собрал 325 миллионов долларов. При этом:

  • У OpenAI не было юридических прав на фонд
  • Фонд финансировался партнёрами, включая Microsoft
  • Альтман единолично решал, какие стартапы получат доступ к OpenAI

Кроме того, он владел долями более чем в 400 компаниях — через YC, Hydrazine и другие фонды. Когда Reddit заключил сделку с OpenAI, его акции выросли на 13%. Личная инвестиция Альтмана в 375 миллионов долларов в Helion Energy «удачно» совпала с переговорами о партнёрстве OpenAI с этой компанией.

Это — его типичный modus operandi. Так он действует, когда никто не смотрит.

Паранойя в совете директоров — с последствиями в реальном мире

До попытки увольнения бывший совет считал, что контролирует ситуацию. Они ошибались.

Но подозрения были. В Кремниевой долине интуиция — навык выживания.

Члены совета боялись Альтмана. Настолько, что вместо открытых обсуждений прибегали к конспиративным методам: исчезающие сообщения, самоуничтожающиеся письма. Следовали правилу разведки — сжечь после прочтения.

Серьёзные, богатые, влиятельные люди вели себя как подростки, нарушающие комендантский час, потому что были в ужасе от «зловещего Сэма».

У них были основания. Бывший член совета Хелен Тонер подтвердила: совет узнал о запуске ChatGPT — продукта, изменившего мир — из Twitter. Альтман даже не счёл нужным их проинформировать.

Когда она написала критическую статью, он захотел вывести её из совета. Чтобы добиться этого, он солгал коллегам, заявив, что и они требуют её ухода.

Он сфабриковал консенсус, чтобы устранить критика.

Этот паттерн — обман, хаос, манипуляции — Тонер назвала «характерной чертой» Альтмана. Другие сотрудники подтверждают: он так вёл себя ещё в Looped и Y Combinator.

Три компании. Один знаменатель: Альтман действует в условиях почти полного самоналоженного дефицита честности.

Сделка с Пентагоном: замена Anthropic

Альтман — мастер оказываться в нужном месте в нужное время. И не оставлять места конкурентам.

Когда Anthropic, основанная бывшими сотрудниками OpenAI, отказалась от контракта с Пентагоном на 200 миллионов долларов, причина была этической: правительство хотело использовать ИИ для массовой слежки за гражданами и управления автономным оружием.

Той же утром Альтман появился на CNBC и заявил, что полностью поддерживает позицию Anthropic. Что OpenAI придерживается тех же принципов.

Через несколько часов OpenAI объявила: она берёт этот контракт. Тот самый — с формулировкой «для любых законных целей», которую Anthropic сочла аморальной.

Альтман согласился на условия, которые, по его собственным словам, он не мог принять. Условия, схожие с теми, что легализовали массовую слежку АНБ, разоблачённую Сноуденом.

Реакция была мгновенной: количество удалений ChatGPT выросло на 295% за день. Anthropic вышла победителем в глазах общественности.

Но Альтману было всё равно. Он живёт по своим правилам.

Его объяснение: «Если мы правы — будем выглядеть гениями. Если нет — нас назовут торопливыми и неосторожными». Никакой ответственности. Только ставка на то, что победители пишут правила.

Правила больше не действуют

Все факты на столе: тайный фонд, ложь совету, контракт на слежку, поддержка автономного оружия.

Ничто из этого не повредило Альтману. Он остаётся во главе «самого дорогого стартапа в истории». Его по-прежнему считают визионером. Кумиром миллионов.

Он почти как Трамп — только пока не может посылать авианосцы. Хотя кто знает, может, и это ещё будет.

Когда речь о нём, нужно понимать одно: он создал новую парадигму. В ней масштаб видения настолько велик, а ставки — настолько экзистенциальны, что старые правила объявляются устаревшими.

Рынок, инвесторы, пользователи — многие это приняли.

Некрасивая правда: его успех — не только в таланте, но и в умении читать дух времени лучше других.

Возможно, так и есть. Но с этим трудно смириться.

Я не хочу жить в мире, где правила для всех нас устанавливает AGI, построенный под присмотром Альтмана.

Читать оригинал