Министерство обороны заявляет, что «красные линии» Энтропик (Anthropic) делают его «неприемлемым риском для национальной безопасности»

Во вторник вечером Министерство обороны США заявило, что Anthropic представляет «неприемлемый риск для национальной безопасности». В рамках своих жалоб Anthropic просила суд временно запретить Министерству обороны применять свой ярлык.

Суть аргумента Министерства обороны, изложенного в 40-страничном заявлении в федеральный суд Калифорнии, заключается в опасении, что Anthropic может «попытаться отключить свою технологию или превентивно изменить поведение своей модели» до или во время «боевых операций», если компания «почувствует, что ее корпоративные «красные линии» пересекаются».

Прошлым летом Anthropic подписала с Пентагоном контракт на 200 миллионов долларов на внедрение своей технологии в секретных системах. В более поздних переговорах по условиям контракта Anthropic заявила, что не хочет, чтобы ее системы искусственного интеллекта использовались для массового наблюдения за американцами, и что технология не готова к использованию при выборе цели или принятии решений об использовании смертоносного оружия. Пентагон заявил, что частная компания не должна диктовать, как военные используют технологии.

В ответ представитель Anthropic указал на заявление генерального директора Дарио Амодеи, сделанное в конце февраля: "Anthropic понимает, что военные решения принимает военное министерство, а не частные компании. Мы никогда не возражали против конкретных военных операций и не пытались ограничить использование наших технологий в специальной манере".

Крис Маттеи, юрист, специализирующийся на вопросах Первой поправки, и бывший прокурор Министерства юстиции, сообщил TechCrunch, что не проводилось никакого расследования, подтверждающего опасения Министерства обороны США по поводу того, что Anthropic потенциально может отключить или изменить свои модели искусственного интеллекта во время боевых действий. Без этих доказательств аргументы департамента не могут адекватно объяснить, как переговорная позиция Anthropic сделала ее «противником», утверждает Маттеи.

«Правительство полностью полагается на гипотетические, спекулятивные фантазии, чтобы оправдать очень, очень серьезный юридический шаг, который они предприняли против Anthropic», — сказал Маттеи. Он добавил, что департаменту не удалось «сформулировать заслуживающее доверия или даже понятное обоснование того, почему отказ Anthropic согласиться на положение о «все законном использовании» сделал ее риском для цепочки поставок, в отличие от поставщика, с которым Министерство обороны просто не хотело иметь дело».

Многие организации выступили против обращения Министерства обороны США с Anthropic, утверждая, что министерство могло только что расторгнуть свой контракт. Несколько технологических компаний и сотрудников, в том числе OpenAI, Google и Microsoft, а также группы по юридическим правам подали amicus отчеты в поддержку Anthropic.

Disrupt 2026: технологическая экосистема в одной комнате

Your next round. Your next hire. Your next breakout opportunity.Find it at TechCrunch Disrupt 2026, where 10,000+ founders, investors, and tech leaders gather for three days of 250+ tactical sessions, powerful introductions, and market-defining innovation. Register now to save up to $400.

Сэкономьте до 300 долларов США или 30 % на саммите основателей TechCrunch.

1,000+foundersand investors come together atTechCrunch Founder Summit 2026for a full day focused on growth, execution, and real-world scaling. Learn from founders and investors who have shaped the industry. Connect with peers navigating similar growth stages. Walk away with tactics you can apply immediatelyOffer ends March 13.

В своих исках Anthropic обвинила Министерство обороны США в нарушении его прав, предусмотренных Первой поправкой закона, и наказала компанию по идеологическим мотивам.

«Во многих отношениях бессмысленные аргументы правительства сами по себе являются лучшим доказательством того, что поведение администрации было явно ответным наказанием за отказ Anthropic согласиться на условия правительства, что, вопреки заявлению правительства, является формой защищенного выражения мнений», — сказал Маттеи TechCrunch.

Слушание по запросу Anthropic о предварительном судебном запрете назначено на следующий вторник.

Представитель Anthropic сообщил TechCrunch, что его решение добиваться судебного пересмотра не меняет «давнего обязательства использовать искусственный интеллект для защиты нашей национальной безопасности», но что это «необходимый шаг» для защиты бизнеса, клиентов и партнеров.

Эта статья была обновлена ​​и теперь включает информацию от Криса Маттеи, юриста по конституционным правам, и комментарии Anthropic.

Читать оригинал