Глобальный доклад по ИИ: от великих надежд до опасных рисков

Глобальный доклад по ИИ: от великих надежд до опасных рисков

Йошуа Бенжио представил первый в истории доклад по безопасности ИИ.

image

Пионер глубокого обучения и один из «крёстных отцов» искусственного интеллекта Йошуа Бенжио представил первый в мире Международный отчёт по безопасности ИИ. В документе подчёркивается, что «будущее универсального ИИ остаётся крайне неопределённым».

В отчёте отмечается широкий диапазон возможных сценариев развития технологии, включая как положительные, так и крайне негативные. При этом потенциал ИИ оценивается как «огромный» в сферах образования, медицины, научных исследований и улучшения качества жизни по всему миру.

Профессор Монреальского университета анонсировал публикацию в соцсети X*, назвав её «беспрецедентной инициативой» с участием 100 независимых экспертов, среди которых нобелевские лауреаты и обладатели премии Тьюринга. Документ, состоящий из 298 страниц, доступен для ознакомления.

Отчёт подготовлен в рамках саммита Artificial Intelligence Action Summit — международной платформы для диалога между государствами, учёными, бизнесом и общественными организациями. Целью инициативы является создание единых стандартов регулирования ИИ и формирование «общего видения общества будущего».

298-страничный документ отвечает на три ключевых вопроса: что умеет универсальный ИИ, какие риски он несёт и как их можно минимизировать. Среди возможных угроз выделены кибератаки, манипуляция общественным мнением и использование технологий в разработке химического и биологического оружия.

Кроме того, отчёт рассматривает системные риски: неравномерное распределение исследований, влияние на экологию и угрозу отказа критически важных ИТ-систем. Также предложены технологические и политические методы управления рисками, включая оценку, смягчение последствий и мониторинг.

В предисловии Бенжио напомнил, что идея отчёта была озвучена ещё на первом AI Safety Summit в ноябре 2023 года. С тех пор возможности ИИ значительно возросли, что требует углублённого анализа вопросов безопасности.

В экспертную группу вошли специалисты из 30 стран, представители ООН, ЕС и Организации экономического сотрудничества и развития (ОЭСР). Среди советников значится и лауреат Нобелевской премии по физике 2024 года Джеффри Хинтон, а в отчёте также упоминаются работы ещё одного «крёстного отца» ИИ — главного научного сотрудника Meta Яна Лекуна.

По мнению Бенжио, стремительное развитие ИИ требует от правительств и политиков понимания потенциальных рисков. В отчёте подчёркивается: «ИИ не развивается сам по себе — его будущее определяется решениями людей».

* Социальная сеть запрещена на территории Российской Федерации.

SOC как супергерой: не спит, не ест, следит за безопасностью!

И мы тоже не спим, чтобы держать вас в курсе всех угроз

Подключитесь к экспертному сообществу!