Регуляторы установят контроль над алгоритмами ИИ и обяжут компании предоставлять обучающие данные.
Китай планирует ввести проверки безопасности сервисов генеративного ИИ перед их запуском. Поставщики услуг ИИ должны гарантировать, что контент является точным и защищает интеллектуальную собственность, а также никого не дискриминирует и не ставит под угрозу безопасность. Операторы ИИ также должны четко маркировать сгенерированный контент.
Новые правила , регулирующие использование ИИ будут относиться только к определённым отраслям. В феврале официальные лица Министерства науки и технологий заявили, что правительство будет настаивать на безопасном и контролируемом применении услуг ИИ, которое Ведомство считает стратегической отраслью.
Кроме того, регулятор подчеркнул, что услуги ИИ должны быть прозрачными в отношении данных и алгоритмов, используемых при обучении моделей, что усилило внимание Пекина к сохранению контроля над конфиденциальной и ценной информацией.
Согласно правилам, поставщики услуг должны предоставлять информацию о происхождении, размере и типах данных, используемых при обучении модели. Помимо данных, платформы ИИ должны делиться базовыми алгоритмами и другими используемыми технологиями.
В совокупности правила предназначены для того, чтобы платформы, подобные ChatGPT, подчинялись жесткому запрету Коммунистической партии на спорный или нежелательный контент в Интернете. Правила также могут стимулировать китайские компании Baidu и SenseTime предоставлять более четкие правила для будущих услуг. По словам Пекина, контент, который считается «отклоняющимся от общества», будет запрещен без уточнения.
Гравитация научных фактов сильнее, чем вы думаете