Эксперты полагают, что вероятность «экзистенциальной катастрофы в ближайшие сто лет» составляет примерно 16,7%.
Пандемия коронавирусной инфекции (COVID-19) унесла жизни более трех миллионов человек, но исследователи из Оксфордского и Кембриджского университетов говорят, что существуют более опасные угрозы человечеству. Как сообщается в отчете экспертов, борьба с болезнями, утечки опасных патогенов из лабораторий и неправильное использование искусственного интеллекта могут быть намного опаснее, чем COVID.
По словам одного из ведущих авторов отчета Тоби Орда (Toby Ord), вероятность «экзистенциальной катастрофы в ближайшие сто лет» составляет примерно 16,7%. Среди самых опасных угроз эксперты отмечают биологическое оружие и утечки патогенов из лабораторий. Несмотря на то, что сфера биотехнологии приносит огромную выгоду, у нее также есть «пугающие перспективы» неправильного использования. Для решения данной проблемы исследователи рекомендуют создать руководящий совет по биобезопасности и проверять все синтезы ДНК на наличие опасных патогенов.
Вторую по значимости угрозу человечеству представляет искусственный интеллект. Вместо далеких сценариев конца света в стиле «Терминатора», эксперты поясняют, что даже широкое развертывание текущих возможностей ИИ «может привести к экстремальным рискам или способствовать их возникновению». Несчастные случаи и злонамеренное использование ИИ становятся все более опасными в результате его более распространенного применения в «критически важных для безопасности» технологиях, таких как беспилотные автомобили и военное оборудование.
Исследователи призывают усилить надзор и отслеживание исследований в области ИИ, а также обновить определение введенный Министерством обороны термин «летальное автономное оружие».
Ладно, не доказали. Но мы работаем над этим