Пока мир обсуждает, заменит ли искусственный интеллект человека, два разных подхода к регулированию ИИ вступают в решающую фазу.
В Европе с 2024 года действует первый в мире всеобъемлющий AI Act, который сейчас дополняют поправками в рамках пакета Цифровой омнибус. В России 18 марта 2026 года правительство опубликовало на обсуждение проект закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта».
Оба документа вступят в силу в 2026–2027 годах, но их философия кардинально различается. ЕС делает ставку на защиту прав человека и фундаментальных свобод через риск-ориентированный подход. Россия — на «технологический суверенитет» и защиту традиционных ценностей. Разбираемся, в чём разница и что это значит для бизнеса.
Европейский подход: защита прав через классификацию рисков
AI Act вводит четкую классификацию систем ИИ по уровням риска:
- Недопустимый риск — запрещены (например, социальный скоринг, манипуляции поведением);
- Высокий риск — строгие требования (кредитные скоринги, подбор персонала);
- Ограниченный риск — обязательна прозрачность (чат-боты, дипфейки);
- Минимальный риск — ограничения отсутствуют.
Главная цель — защита здоровья, безопасности и фундаментальных прав. Штрафы за нарушения могут достигать 35 млн евро.
Российский подход: технологический суверенитет во главу угла
Российский закон ставит во главу угла «обеспечение государственного технологического суверенитета» (Статья 1). Ключевое требование — критически важные нейросети должны быть российскими, обучаться в России и на российских данных.
Главные различия подходов в деталях
1. Что под запретом?
ЕС использует конкретные запрещённые практики. Например, запрещены системы, считывающие эмоции на работе и в школах. В марте 2026 года Европарламент одобрил запрет на приложения, которые с помощью ИИ «раздевают» людей на фото.
Россия применяет более широкое понятие — «эксплуатация уязвимостей человека» (Статья 3). Оно включает возрастные, психологические и физические особенности. Эта формулировка может охватить всё — от таргетированной рекламы детям до политической агитации.
2. Фундаментальные модели
В ЕС такие модели называются General-Purpose AI (GPAI). Если модель работает в ЕС, её разработчики обязаны предоставить техническую документацию, информацию об обучающих данных и соблюдать авторские права. Модели с «системными рисками» попадают под усиленный контроль специального AI Office.
В России речь идёт о «суверенных и национальных больших фундаментальных моделях» (Статья 7). Чтобы модель попала в эту категорию, её нужно разрабатывать и обучать исключительно в РФ, с участием только граждан и российских юрлиц. Это прямое требование по импортозамещению в сфере ИИ.
3. Ответственность и штрафы
Европа устанавливает высокие, но чёткие штрафы — до 35 млн евро. Критерии нарушений прозрачны.
Российский закон (Статья 11) вводит сложную систему ответственности. Основное условие — разработчик, оператор или владелец сервиса несут ответственность, если заведомо знал или должен был знать о возможном вреде, если не будет доказано обратное.
Статья 11.2: «Разработчик модели искусственного интеллекта, оператор системы искусственного интеллекта, владелец сервиса искусственного интеллекта несут ответственность... при условии, что указанные лица заведомо знали или должны были знать о возможности получения такого результата... если в результате следственных действий не будет доказано обратное».
Презумпция вины — если не докажешь, что не мог знать. Но есть защита:
Статья 11.3: «Разработчик... освобождается от ответственности... в случае, если предпринял исчерпывающие меры к предотвращению получения такого результата».
Также предусмотрен регресс:
Статья 11.6: «Оператор системы искусственного интеллекта, возместивший вред... вправе предъявить регрессное требование к разработчику данного объекта, если докажет, что вред возник исключительно вследствие недостатков объекта, которые существовали на момент его передачи оператору».
4. Территориальный принцип
ЕС применяет экстерриториальный подход: правила касаются всех, кто работает с данными европейцев, независимо от места регистрации компании.
Россия пока ограничивается деятельностью на своей территории (Статья 1). Однако если сервис пользуется популярностью в России — более 500 тысяч пользователей в сутки — на него распространяются обязанности «владельца сервиса» (Статья 10).
Статья 10.1: «Разработчик модели искусственного интеллекта обязан обеспечить безопасность созданной модели, включая:
а) исключение функциональных особенностей, способных привести к дискриминации на основе поведения или личностных характеристик;
в) документирование архитектуры, логики функционирования и ограничений моделей ИИ в объёме, необходимом для проверки».
Статья 10.2: «Оператор системы искусственного интеллекта обязан:
д) незамедлительно приостанавливать эксплуатацию объектов с использованием ИИ при выявлении угрозы причинения вреда жизни, здоровью граждан, безопасности государства, имуществу, окружающей среде».
Статья 10.3г: «Если к сервису в течение суток обращается более пятисот тысяч пользователей, находящихся на территории РФ, [владелец сервиса] выполняет обязанности, предусмотренные статьёй 10.1 Федерального закона «Об информации...».
5. Интеллектуальная собственность
Россия легализует text and data mining (TDM) для обучения ИИ:
Статья 13.5: «Не является нарушением авторских и (или) патентных прав извлечение информации из защищённых объектов... для изготовления набора данных и (или) обучения искусственного интеллекта, при условии, что был получен правомерный экземпляр произведения, либо объект был доведён до всеобщего сведения».
В ЕС TDM тоже разрешён, но правообладатели могут запретить использование своих материалов. В российском законе такого механизма нет — отказ невозможен.
Оба закона закладывают правила игры на ближайшие десятилетия. Их реализация будет напрямую влиять на развитие индустрии ИИ, бизнес-модели и технологические независимости. Будет интересно наблюдать, как эти два подхода будут развиваться и конкурировать в глобальном масштабе.