В России предложили ввести запрет ИИ с «угрожающим уровнем риска»
. Законопроект разработала профильная рабочая группа
Профильная рабочая группа из юристов, представителей консалтинговых компаний и участников рынка, развивающих ИИ, разработала законопроект регулирования искусственного интеллекта (ИИ) в России, пишет РБК со ссылкой на пять источников, которые знакомы с инициативой. Копия документа есть в распоряжении РБК, подлинность подтвердили два источника.
В частности, законопроект предлагает создать классификацию систем ИИ по уровню потенциального риска — «с неприемлемым, высоким, ограниченным и минимальным уровнем риска». Авторы инициативы предлагают запретить в стране «разработку и эксплуатацию систем ИИ, относящихся к категории с неприемлемым уровнем риска, то есть создающих угрозу безопасности личности, общества и государства, а также нарушающих основополагающие права и свободы человека и гражданина».
Системы с высоким уровнем риска применяют в здравоохранении, транспорте, финансах, правоохранительной деятельности и других сферах. В этом случае предлагается введение обязательной госрегистрации и сертификации. При ограниченном уровне риска необходимы системы внутреннего контроля качества и добровольная сертификация, указано в документе.
Также законопроект предусматривает введение требований к маркировке систем ИИ. Она должна быть «явной, недвусмысленной и легко идентифицируемой». Исключение — ИИ «в закрытых технологических процессах, для внутренней автоматизации организаций» и некоторых других.
Ранее сообщалось о том, что Китай утвердил новые правила для маркировки контента, сгенерированного нейросетями. С 1 сентября такие материалы должны будут содержать скрытые метки в метаданных.
Новые правила разработало Управление киберпространства Китая совместно с Министерством промышленности и информационных технологий, Министерством общественной безопасности и Национальным управлением радиовещания и телевидения. Согласно новым требованиям, платформы и разработчики должны сообщать, что их сервисы создают контент с помощью ИИ. В свою очередь, магазины приложений должны проверять, как именно маркируется такой контент. Мера направлена на борьбу с дезинформацией.