Изменения в политике разработки могут повлиять на миллионы пользователей.
В начале марта Национальный институт стандартов и технологий США (NIST) выпустил обновлённые инструкции для учёных, сотрудничающих с Институтом безопасности искусственного интеллекта (AISI). В новом соглашении исключены упоминания о «безопасности ИИ», «ответственном ИИ» и «справедливости ИИ». Вместо этого введён приоритет на «снижение идеологической предвзятости для обеспечения процветания человечества и экономической конкурентоспособности».
Ранее соглашение поощряло исследователей разрабатывать технические решения для выявления и исправления дискриминационного поведения моделей, связанного с полом, расой, возрастом или экономическим неравенством. Такие предвзятости могут напрямую влиять на конечных пользователей и непропорционально вредить меньшинствам и экономически незащищённым группам.
Теперь же из соглашения удалены пункты о разработке инструментов «для аутентификации контента и отслеживания его происхождения», а также «маркировки синтетического контента», что может свидетельствовать о снижении интереса к борьбе с дезинформацией и глубокими фейками.
Новые инструкции подчёркивают приоритет США, призывая разработать тестовые инструменты «для расширения глобальной позиции Америки в области ИИ». Представитель организации, сотрудничающей с AISI, отметил, что текущая администрация исключила ценности безопасности, справедливости, борьбы с дезинформацией и ответственности в контексте ИИ, что может привести к негативным последствиям для обычных пользователей.
Некоторые исследователи выражают обеспокоенность тем, что изменение фокуса AISI может привести к созданию систем ИИ, которые будут несправедливыми, дискриминационными и небезопасными для общества. Они призывают к более ответственному подходу к разработке и внедрению технологий ИИ, учитывающему интересы всех слоёв общества.