Эксперты дают советы, но не все их принимают всерьез.
Центр безопасности искусственного интеллекта (CAIS) в США и другие группы экспертов вместе предупредили , что развитие технологий ИИ грозит исчезновением человечества, и что необходимо принять меры для предотвращения такого сценария развития событий.
“Снижение риска вымирания, которое может произойти из-за ИИ, должно стать глобальным приоритетом наряду с другими угрозами, такими как пандемии и ядерная война”, - говорится в заявлении, опубликованном на сайте центра.
Документ подписали эксперты в области ИИ, а также специалисты в сфере информационных технологий, экономики, математики, философии. Среди них - гендиректор компании Open AI и программист Сэм Олтмен, один из разработчиков ИИ британский ученый Джеффри Хинтон.
На сайте центра подробно рассказывается о рисках, которые, по его мнению, связаны с искусственным интеллектом. Например:
Центр также предлагает несколько способов снижения рисков от ИИ, таких как:
Это не первое обращение за последнее время, авторы которого говорят о возможных угрозах ИИ. В марте глава SpaceX, Tesla и Twitter Илон Маск, сооснователь Apple Стив Возняк и более 1000 экспертов и руководителей отрасли по развитию искусственного интеллекта подписали письмо с призывом приостановить разработку продвинутого ИИ до тех пор, пока не будут созданы, внедрены и проверены независимыми экспертами общие протоколы безопасности.
Однако не все специалисты разделяют страхи перед ИИ. Некоторые считают, что опасения переоценены и отвлекают от более актуальных проблем, таких как предвзятость или дискриминация в системах ИИ. Другие уверены, что текущий уровень развития ИИ не позволяет ему представлять серьезную угрозу для человечества.
Никаких овечек — только отборные научные факты