Йошуа Бенжио представил первый в истории доклад по безопасности ИИ.
Пионер глубокого обучения и один из «крёстных отцов» искусственного интеллекта Йошуа Бенжио представил первый в мире Международный отчёт по безопасности ИИ. В документе подчёркивается, что «будущее универсального ИИ остаётся крайне неопределённым».
В отчёте отмечается широкий диапазон возможных сценариев развития технологии, включая как положительные, так и крайне негативные. При этом потенциал ИИ оценивается как «огромный» в сферах образования, медицины, научных исследований и улучшения качества жизни по всему миру.
Профессор Монреальского университета анонсировал публикацию в соцсети X*, назвав её «беспрецедентной инициативой» с участием 100 независимых экспертов, среди которых нобелевские лауреаты и обладатели премии Тьюринга. Документ, состоящий из 298 страниц, доступен для ознакомления.
Отчёт подготовлен в рамках саммита Artificial Intelligence Action Summit — международной платформы для диалога между государствами, учёными, бизнесом и общественными организациями. Целью инициативы является создание единых стандартов регулирования ИИ и формирование «общего видения общества будущего».
298-страничный документ отвечает на три ключевых вопроса: что умеет универсальный ИИ, какие риски он несёт и как их можно минимизировать. Среди возможных угроз выделены кибератаки, манипуляция общественным мнением и использование технологий в разработке химического и биологического оружия.
Кроме того, отчёт рассматривает системные риски: неравномерное распределение исследований, влияние на экологию и угрозу отказа критически важных ИТ-систем. Также предложены технологические и политические методы управления рисками, включая оценку, смягчение последствий и мониторинг.
В предисловии Бенжио напомнил, что идея отчёта была озвучена ещё на первом AI Safety Summit в ноябре 2023 года. С тех пор возможности ИИ значительно возросли, что требует углублённого анализа вопросов безопасности.
В экспертную группу вошли специалисты из 30 стран, представители ООН, ЕС и Организации экономического сотрудничества и развития (ОЭСР). Среди советников значится и лауреат Нобелевской премии по физике 2024 года Джеффри Хинтон, а в отчёте также упоминаются работы ещё одного «крёстного отца» ИИ — главного научного сотрудника Meta Яна Лекуна.
По мнению Бенжио, стремительное развитие ИИ требует от правительств и политиков понимания потенциальных рисков. В отчёте подчёркивается: «ИИ не развивается сам по себе — его будущее определяется решениями людей».
* Социальная сеть запрещена на территории Российской Федерации.
И мы тоже не спим, чтобы держать вас в курсе всех угроз