Система искусственного интеллекта Трампа направлена на штатные законы и перекладывает ответственность за безопасность детей на родителей

Администрация Трампа в пятницу изложила законодательную основу для единой политики в отношении ИИ в Соединенных Штатах. Эта система централизует власть в Вашингтоне, предвосхищая законы штата об искусственном интеллекте, что потенциально подрывает недавний всплеск усилий штатов по регулированию использования и развития этой технологии.

«Эта система может добиться успеха только в том случае, если она будет применяться единообразно на всей территории Соединенных Штатов», — говорится в заявлении Белого дома по поводу этой структуры. «Печенье противоречивых законов штатов подорвет американские инновации и нашу способность лидировать в глобальной гонке ИИ».

В документе обозначены семь ключевых целей, в которых приоритет отдается инновациям и масштабированию искусственного интеллекта, а также предлагается централизованный федеральный подход, который будет иметь приоритет перед более строгими правилами на уровне штата. Он возлагает на родителей значительную ответственность за такие вопросы, как безопасность детей, и устанавливает относительно мягкие, ни к чему не обязывающие требования в отношении подотчетности платформы.

Например, в нем говорится, что Конгресс должен потребовать от компаний, занимающихся искусственным интеллектом, реализовать функции, которые «снижают риски сексуальной эксплуатации и причинения вреда несовершеннолетним», но не излагает каких-либо четких, осуществимых требований.

Рамки Трампа появились через три месяца после того, как он подписал указ, предписывающий федеральным агентствам оспаривать законы штата об искусственном интеллекте. Приказ дал Министерству торговли 90 дней на составление списка «обременительных» законов штата об искусственном интеллекте, что потенциально ставит под угрозу право штатов на получение федеральных фондов, таких как гранты на широкополосную связь. Агентство еще не опубликовало этот список.

Приказ также предписывал администрации работать с Конгрессом над единым законом об ИИ. Это видение становится все более очевидным и отражает более раннюю стратегию Трампа в области искусственного интеллекта, которая фокусировалась не столько на ограждениях, сколько на содействии росту компаний.

Новая структура предлагает «минимально обременительный национальный стандарт», отражая более широкое стремление администрации «устранить устаревшие или ненужные барьеры для инноваций» и ускорить внедрение ИИ во всех отраслях. Это стимулирующий экономический рост и мягкий подход к регулированию, который отстаивают так называемые «акселерационисты», одним из которых является руководитель Белого дома по искусственному интеллекту и венчурный капиталист Дэвид Сакс.

Disrupt 2026: технологическая экосистема в одной комнате

Your next round. Your next hire. Your next breakout opportunity.Find it at TechCrunch Disrupt 2026, where 10,000+ founders, investors, and tech leaders gather for three days of 250+ tactical sessions, powerful introductions, and market-defining innovation. Register now to save up to $400.

Сэкономьте до 300 долларов США или 30 % на саммите основателей TechCrunch.

1,000+foundersand investors come together atTechCrunch Founder Summit 2026for a full day focused on growth, execution, and real-world scaling. Learn from founders and investors who have shaped the industry. Connect with peers navigating similar growth stages. Walk away with tactics you can apply immediatelyOffer ends March 13.

В то время как структура отдает предпочтение федерализму, ограничения для штатов относительно узки, сохраняя только их власть над общими законами, такими как мошенничество и защита детей, зонирование и использование ИИ штатами. Он проводит жесткую линию в отношении государств, регулирующих само развитие ИИ, что, по его словам, является «по сути межгосударственным» вопросом, связанным с национальной безопасностью и внешней политикой.

Эта структура также направлена ​​на то, чтобы государства не «наказывали разработчиков ИИ за незаконное поведение третьей стороны, связанной с их моделями» — ключевой щит ответственности для разработчиков.

В этой системе отсутствуют какие-либо жесты в отношении механизмов ответственности, независимого надзора или механизмов обеспечения соблюдения потенциального нового вреда, причиненного ИИ. По сути, эта структура централизует разработку политики в области ИИ в Вашингтоне, одновременно сужая пространство для действий государств в качестве ранних регуляторов возникающих рисков.

Критики говорят, что государства являются песочницей демократии и быстрее принимают законы, направленные на устранение возникающих рисков. Примечательно, что нью-йоркский закон RAISE Act и калифорнийский SB-53 стремятся обеспечить, чтобы крупные компании, занимающиеся искусственным интеллектом, имели и соблюдали протоколы безопасности, которые публично задокументированы.

«Царь ИИ в Белом доме Дэвид Сакс продолжает выполнять приказы крупных технологических компаний за счет обычных, трудолюбивых американцев», — сказал Брендан Штайнхаузер, генеральный директор Альянса за безопасный ИИ. «Эта федеральная система искусственного интеллекта направлена ​​на то, чтобы помешать штатам принимать законы об искусственном интеллекте, и не дает разработчикам искусственного интеллекта возможности привлечь к ответственности за вред, причиненный их продуктами».

Многие в индустрии искусственного интеллекта приветствуют это направление, потому что оно дает им более широкие свободы для «инноваций» без угрозы регулирования.

«Эта структура — именно то, о чем просили стартапы: четкий национальный стандарт, позволяющий им быстро и масштабно строить», — рассказала TechCrunch Тереза ​​Карлсон, президент General Catalyst Institute. «Учредителям не следует разбираться в мешанине противоречивых государственных законов об искусственном интеллекте, которые препятствуют инновациям».

Безопасность детей, авторские права и свобода слова

Рамочная программа была принята в тот момент, когда безопасность детей стала центральной горячей темой в дебатах по поводу ИИ. Некоторые штаты агрессивно приняли законы, направленные на защиту несовершеннолетних и возложение большей ответственности на технологические компании. Предложение администрации указывает в другом направлении, уделяя больше внимания родительскому контролю, чем подотчетности платформы.

«Родители лучше всего подготовлены к управлению цифровой средой и воспитанием своих детей», — говорится в документе. «Администрация призывает Конгресс предоставить родителям инструменты для эффективного выполнения этой задачи, такие как контроль учетных записей для защиты конфиденциальности детей и управления использованием их устройств».

В документе также говорится, что администрация «считает», что платформы искусственного интеллекта должны «реализовать функции, позволяющие уменьшить потенциальную сексуальную эксплуатацию детей и поощрение членовредительства». Хотя оно призывает Конгресс требовать таких гарантий и подтверждает, что существующие законы, в том числе те, которые запрещают материалы о сексуальном насилии над детьми, должны применяться к системам ИИ, в предложении используются такие уточнения, как «коммерческая разумность», и не излагаются четкие предпосылки.

Что касается авторского права, структура пытается найти золотую середину между защитой авторов и разрешением обучать системы ИИ на существующих произведениях, ссылаясь на необходимость «добросовестного использования». Подобные формулировки отражают аргументы, которые выдвигают компании, занимающиеся искусственным интеллектом, поскольку они сталкиваются с растущим числом исков об авторских правах в отношении своих обучающих данных.

Основные барьеры, которые Трамп обозначил в рамках ИИ-структуры, по-видимому, включают в себя обеспечение того, чтобы «ИИ мог добиваться правды и точности без ограничений». В частности, основное внимание уделяется предотвращению государственной цензуры, а не самой модерации платформы.

«Конгресс должен препятствовать тому, чтобы правительство Соединенных Штатов принуждало поставщиков технологий, включая поставщиков искусственного интеллекта, к запрету, принуждению или изменению контента на основе партийных или идеологических целей», — говорится в документе. Он также поручает Конгрессу предоставить американцам возможность добиваться правовой защиты против правительственных учреждений, которые стремятся подвергать цензуре выражения мнений на платформах ИИ или диктовать информацию, предоставляемую платформой ИИ.

Эта структура представляет собой антропную выдачу правительству обвинения в нарушении его прав, предусмотренных Первой поправкой, после того как Министерство обороны назвало это риском для цепочки поставок. Anthropic утверждает, что Министерство обороны называет его таковым в отместку за то, что он не разрешил военным использовать свои продукты искусственного интеллекта для массового наблюдения за американцами, а также за принятие решений о нацеливании и стрельбе из автономного смертоносного оружия. Трамп назвал Anthropic и ее генерального директора Дарио Амодеи «пробуждёнными» и «радикальными» левыми.

Формулировка структуры, в которой делается упор на защиту «законных политических выражений или инакомыслия», похоже, основана на более раннем Указе Трампа, нацеленном на так называемый «пробуждённый ИИ», который подтолкнул федеральные агентства к принятию систем, считающихся идеологически нейтральными.

Неясно, что квалифицируется как цензура по сравнению со стандартной модерацией контента, поэтому такие формулировки могут затруднить для регулирующих органов координацию действий с платформами по таким вопросам, как дезинформация, вмешательство в выборы или риски для общественной безопасности.

Самир Джайн, вице-президент по политике Центра демократии и технологий, отметил: «[В рамках] справедливо говорится, что правительство не должно принуждать компании, занимающиеся искусственным интеллектом, запрещать или изменять контент на основе «партийных или идеологических программ», однако административный указ «Разбуди ИИ», принятый этим летом, делает именно это».

Читать оригинал