Когда ИИ встречает ГОСТ: в России пишут закон о будущем

Когда ИИ встречает ГОСТ: в России пишут закон о будущем

Как власти планируют контролировать искусственный интеллект?

image

Рабочая группа, включающая юристов, консультантов и представителей ИИ-компаний, разработала законопроект «О регулировании систем искусственного интеллекта (ИИ) в России». Документ, как сообщает РБК со ссылкой на пять источников, обсуждался на заседаниях в Госдуме, «Деловой России» и на отраслевых площадках. Его подлинность подтвердили два собеседника из IT-сферы.

Законопроект направлен на реализацию Национальной стратегии развития ИИ до 2030 года, утверждённой в феврале 2024 года. Заместитель председателя комитета по информационной политике, член рабочей группы по ИИ в Госдуме Андрей Свинцов сообщил, что по поручению председателя нижней палаты парламента Вячеслава Володина создана рабочая группа «по разработке всего, что связано с законодательством в области ИИ». По его словам, сейчас законодательные инициативы «всерьёз не рассматриваются»: группа создана для того, чтобы «внимательно, детально изучить все запросы от различных отраслей». Он отметил, что в ближайшие месяцы могут появиться несколько инициатив, «которые точечно будут регулировать какие-то отраслевые запросы, вводить какие-то пилотные зоны или пилотные режимы», однако появления законопроекта, который охватит всю сферу деятельности ИИ, в этом году он не ожидает. Среди направлений, которые будут регулироваться в первую очередь, Свинцов назвал маркировку. При этом он подчеркнул, что готового проекта закона в Госдуме пока нет.

В аппарате правительства и Минцифры сообщили, что пока не получали этот проект на рассмотрение, но выразили готовность изучить его в случае поступления.

Законопроект определяет ключевые понятия — искусственный интеллект, технологии и системы ИИ, а также роли разработчика, оператора и пользователя. Особое внимание уделено маркировке: все ИИ-системы, взаимодействующие с пользователями, должны иметь понятное и легко идентифицируемое обозначение.

Законопроект вводит четырехуровневую классификацию по рискам: от минимального до неприемлемого. Последним предлагается запретить разработку и эксплуатацию. Системы с высоким риском — в сфере здравоохранения, транспорта, финансов и правоохранительной деятельности — должны будут пройти обязательную регистрацию и сертификацию. В числе требований — страхование гражданской ответственности операторов таких систем.

Авторы документа также предлагают закрепить ответственность за причинение вреда жизненно важным интересам. Однако в проекте предусмотрены исключения, при которых разработчики и операторы смогут избежать наказания, если докажут соблюдение всех норм и правил.

Один из наиболее чувствительных вопросов касается авторских прав на результат, созданный с применением ИИ. Если творческий вклад человека очевиден, права закрепляются за ним. В остальных случаях — за оператором ИИ-системы на срок до 50 лет.

Если проект будет одобрен, на исполнение его требований разработчикам и операторам ИИ-систем будет отведён один год, а сертификация ранее созданных систем с высоким уровнем риска должна быть завершена за два года.

Источник РБК в одной из ИИ-компаний отмечает, что ранее в правительстве считали регулирование ИИ преждевременным. Вице-премьер Дмитрий Григоренко в феврале 2024 года заявлял, что такое регулирование не планируется как минимум в течение двух лет. По мнению источника, инициативы по саморегулированию со стороны бизнеса уже внедряются, а избыточное регулирование может замедлить развитие отрасли и усилить технологическое отставание. В пример он привёл ЕС, где после принятия закона об ИИ некоторые компании начали сокращать присутствие в регионе.

По словам директора по цифровым технологиям «Ростелекома» Романа Хазеева, мировой опыт пока не сформировал устойчивую практику по определению ответственности в сфере нейросетей и дипфейков. Он подчеркнул, что регулирование должно вводиться после стабилизации процессов и появления устойчивой проблематики.

Международный контекст

В 2024 году Европарламент утвердил Регламент об искусственном интеллекте (EU AI Act). Документ запрещает использование ИИ для подсознательного манипулирования, дистанционной биометрической идентификации в общественных местах и введения «социальных баллов». Системы с высокой степенью риска подлежат обязательной сертификации перед выходом на рынок. Также акт требует маркировки ИИ-контента. За нарушения предусмотрены штрафы до €40 млн или 7% годового оборота.

В США в марте 2024 года обсуждался проект по введению обязательной маркировки ИИ-контента. Китай утвердил аналогичные правила в марте 2025 года: с 1 сентября будет действовать требование сообщать о генерации контента нейросетями, включая контроль со стороны магазинов приложений.

В России обсуждение маркировки ИИ-содержания началось в 2022 году. В 2024 году разрабатывалась концепция закона, предусматривающего использование графических или водяных знаков. В феврале 2025 года Андрей Свинцов вновь предложил ввести обязательную маркировку ИИ-контента.

Как управлять уязвимостями в инфраструктуре свыше 80 000 хостов

23 апреля состоится вебинар о возможностях ScanFactory VM для крупного бизнеса.

Реклама. 18+, ООО «СКАНФЭКТОРИ», ИНН 7727458406