В России готовят закон об искусственном интеллекте: под ограничения могут попасть ChatGPT, Claude и Gemini

Минцифры предлагает ввести правила для нейросетей, хранение данных в РФ и возможность запрета трансграничных технологий

Минцифры разработало законопроект об ИИ. Возможны ограничения зарубежных моделей

Минцифры опубликовало для общественного обсуждения законопроект «Об основах госрегулирования сфер применения технологий искусственного интеллекта». Документ впервые вводит комплексные правила работы с ИИ в России — от классификации моделей до ответственности за их использование — и может вступить в силу с 1 сентября 2027 года.

Чтобы не пропустить новые тексты «Вёрстки», подписывайтесь на наш телеграм-канал

Ограничения, данные и требования к сервисам

Законопроект допускает ограничения «трансграничных технологий» — иностранных ИИ-моделей, при работе с которыми данные пользователей передаются за рубеж. К таким сервисам, по словам экспертов, относятся, в частности, ChatGPT, Claude и Gemini. Конкретные основания для запретов в документе пока не прописаны.

Также платформы с аудиторией более 500 тысяч пользователей должны будут хранить данные и сообщения пользователей на территории России в течение трёх лет и предоставлять их по запросу властей.

Вводится и обязательная маркировка контента, созданного с помощью ИИ. Крупные платформы обязаны проверять наличие такой маркировки и удалять или ограничивать распространение материалов при её отсутствии.

Кроме того, разработчики должны исключать дискриминационные алгоритмы и оценивать риски, а операторы — обеспечивать безопасность систем и приостанавливать их работу при угрозах. Ответственность за вред будет распределяться между разработчиками, операторами, владельцами сервисов и пользователями «соразмерно степени вины каждого».

Чтобы не пропустить новые тексты «Вёрстки», подписывайтесь на наш телеграм-канал

«Суверенные» и «доверенные» модели

Законопроект делит LLM-модели на категории. «Суверенные» и «национальные» модели должны полностью разрабатываться в России и получат господдержку.

«Доверенные» модели смогут использоваться в государственных системах и критической инфраструктуре — после проверки безопасности ФСБ, Федеральной службой по техническому и экспортному контролю и включения в специальный реестр.

Открытые модели, такие как Qwen или DeepSeek, могут использоваться внутри закрытых компаний и госструктур — в этом случае данные остаются внутри страны.

Регулирование инфраструктуры

Правительство сможет формировать перечень центров обработки данных для ИИ, которые получат льготы: доступ к электроэнергии по сниженным тарифам, упрощённое подключение к сетям и бюджетную поддержку.

В документе также предусмотрено развитие международного сотрудничества и создание «единого пространства» доверенных ИИ-технологий с участием России.

Авторы проекта отмечают, что отсутствие регулирования уже сдерживает развитие отрасли и может привести к технологическому отставанию.

Законопроект носит рамочный характер и будет распространяться на граждан и компании в России, за исключением сфер обороны и безопасности, которые регулируются отдельно.

Ранее «Вёрстка» рассказывала о том, что Роскомнадзор уже в этом году обещает внедрить ИИ-фильтрацию интернет-контента. Бюджет проекта составляет более двух миллиардов рублей. Также мы писали о том, почему использование ИИ-браузеров удобно, но не безопасно и как умение искусственного интеллекта понимать текст могут использовать для кражи данных.

Фото: Matthias Balk/dpa via Reuters Connect

Поддержите «Вёрстку» — это важно и безопасно →