Новый закон об ИИ в России: что реально меняется и к чему готовиться бизнесу

18 марта 2026 года был опубликован проект федерального закона «Об основах государственного регулирования применения технологий искусственного интеллекта». Это первый системный документ, определяющий правила использования ИИ в России. Он затрагивает разработчиков, операторов, государственные структуры и граждан.

Технологический суверенитет и исключения

Главная цель закона — обеспечение государственного технологического суверенитета. Это означает, что критически важные ИИ-модели должны быть российскими, обучаться на территории РФ, на российских данных и с участием российских специалистов.

При этом закон не распространяется на сферы обороны, безопасности и охраны правопорядка, если иное не установлено отдельными актами.

1. Суверенные модели и реестр доверенных ИИ

Закон вводит понятие «суверенной и национальной модели ИИ». Чтобы модель получила такой статус, необходимо:

  • все этапы разработки и обучения — на территории России;
  • разработка, обучение и эксплуатация — только российскими гражданами и юридическими лицами;
  • обучение — на данных, собранных в РФ российскими субъектами.

Создаётся «Реестр доверенных моделей искусственного интеллекта». В него включаются модели, прошедшие проверку на безопасность (ФСБ, ФСТЭК) и соответствие требованиям.

Госорганы и организации, владеющие объектами критической информационной инфраструктуры (энергетика, транспорт и др.), обязаны использовать только модели из этого реестра. Это фактически исключает западные ИИ-решения (например, OpenAI, Anthropic) из государственного сектора.

2. Ответственность за действия ИИ

Ответственность за нарушения, вызванные ИИ, распределяется соразмерно степени вины. Однако действует презумпция виновности разработчика, оператора и владельца сервиса:

  • они несут ответственность, если заведомо знали или должны были знать о возможном нарушении;
  • исключение — если докажут, что приняли исчерпывающие меры по предотвращению рисков и соблюдали закон.

Пользователь отвечает отдельно, если использовал результат ИИ умышленно или нарушил условия эксплуатации.

Также предусмотрены основания для освобождения от ответственности: непреодолимая сила, умысел потерпевшего, неустранимые недостатки модели.

Оператор, возместивший ущерб, может предъявить регресс разработчику, если докажет, что вред возник из-за дефектов, существовавших до передачи системы.

3. Маркировка контента, созданного ИИ

Весь контент, сгенерированный ИИ (текст, аудио, видео), должен быть помечен специальным предупреждением. Владельцы сервисов обязаны размещать его в человекочитаемом и машиночитаемом формате.

Площадки с аудиторией свыше 100 тысяч пользователей в сутки обязаны проверять наличие метки. При её отсутствии — либо добавить метку, либо удалить контент.

Удаление метки после публикации — административное правонарушение.

Пользователь может отказаться от метки, но только при условии осознанного, информированного и однозначного согласия.

4. Интеллектуальная собственность

Разработчики могут использовать защищённые авторским правом материалы для обучения ИИ без прямого согласия правообладателя, если:

  • имеется законный доступ к произведению;
  • или произведение было доведено до всеобщего сведения.

Результат генерации (текст, изображение) охраняется авторским правом, если является оригинальным творением. Права на него принадлежат пользователю.

Владельцы сервисов обязаны информировать пользователей о правилах использования результатов ИИ до начала взаимодействия.

5. Права граждан

Граждане должны быть проинформированы, если:

  • с ними взаимодействует бот;
  • решение за них принимает алгоритм без участия человека.

В случаях, установленных правительством, гражданин может отказаться от использования ИИ и потребовать обслуживания без него.

Также гарантируется:

  • право на досудебное обжалование решений госорганов, принятых с помощью ИИ;
  • право на компенсацию вреда, причинённого неправомерным использованием ИИ, в порядке, предусмотренном Гражданским кодексом РФ.

6. Обязанности бизнеса

Разработчик модели обязан:

  • обеспечить безопасность модели, исключая дискриминацию по личностным характеристикам;
  • документировать архитектуру, логику и ограничения модели;
  • проводить моделирование потенциальных рисков.

Оператор системы обязан:

  • немедленно приостанавливать эксплуатацию ИИ при угрозе вреда жизни, здоровью, имуществу, окружающей среде;
  • вести учёт инцидентов, связанных с работой ИИ.

Владелец сервиса обязан:

  • установить правила доступа и запретить использование сервиса в незаконных целях;
  • информировать пользователей о взаимодействии с ИИ.

Сервисы с аудиторией свыше 500 тысяч пользователей в сутки подпадают под требования закона о «приземлении» — они обязаны выполнять функции представительства в РФ.

Пользователь обязан:

  • использовать ИИ в целях, не противоречащих закону;
  • не обходить встроенные механизмы безопасности.

7. Льготы для вычислительных мощностей

Правительство может утвердить перечень ЦОДов и суперкомпьютеров, участвующих в развитии ИИ, и ввести для них специальный режим поддержки:

  • приоритетное подключение к электросетям;
  • освобождение от платы за технологическое присоединение;
  • льготные тарифы на электроэнергию;
  • госфинансирование и налоговые преференции.

Это направлено на преодоление дефицита вычислительных ресурсов в России.

Для объектов критической инфраструктуры использование ЦОДов возможно только при наличии соответствующей сертификации.

Тревожные звоночки и скрытые риски

1. Медленное регулирование. Все нормативные акты по ИИ должны согласовываться с профильным ведомством, ФСБ и ФСТЭК. Это может затормозить внедрение инноваций.

2. Понятие «эксплуатация уязвимостей человека». Под него формально может подпасть таргетированная реклама, рекомендательные системы, психологические тесты и контент для подростков.

«Эксплуатация уязвимостей человека — использование особенностей физического лица (включая возрастные, психологические, когнитивные, социально-экономические особенности) для целенаправленного воздействия на поведение или принятие решений, причиняющего вред».

3. Духовно-нравственные ценности. Закон требует учитывать «традиционные российские ценности», включая патриотизм, служение Отечеству, преемственность поколений и коллективизм. Правительство должно определить орган, который будет оценивать соответствие ИИ этим критериям.

Краткие выводы

Закон вступает в силу 1 сентября 2027 года. У бизнеса есть время на адаптацию.

Ключевые изменения:

  • Госсектор будет использовать только доверенные российские ИИ-модели.
  • Разработчики несут повышенную ответственность, но могут быть освобождены при доказательстве «исчерпывающих мер».
  • Обязательная маркировка ИИ-контента и защита прав граждан на прозрачность и отказ от ИИ.
  • Разрешено обучение ИИ на пиратском контенте при наличии законного доступа.
  • Льготы для ЦОДов и суперкомпьютеров — попытка решить проблему нехватки вычислительных мощностей.

Закон создаёт новые возможности, но также вводит жёсткие рамки, особенно в госсекторе. Его влияние, вероятно, будет расширено на частный бизнес в будущем.

Читать оригинал