Утечки патогенов из биолабораторий и неправильное использование ИИ могут быть опаснее COVID-19

Утечки патогенов из биолабораторий и неправильное использование ИИ могут быть опаснее COVID-19

Эксперты полагают, что вероятность «экзистенциальной катастрофы в ближайшие сто лет» составляет примерно 16,7%.

Пандемия коронавирусной инфекции (COVID-19) унесла жизни более трех миллионов человек, но исследователи из Оксфордского и Кембриджского университетов говорят, что существуют более опасные угрозы человечеству. Как сообщается в отчете экспертов, борьба с болезнями, утечки опасных патогенов из лабораторий и неправильное использование искусственного интеллекта могут быть намного опаснее, чем COVID.

По словам одного из ведущих авторов отчета Тоби Орда (Toby Ord), вероятность «экзистенциальной катастрофы в ближайшие сто лет» составляет примерно 16,7%. Среди самых опасных угроз эксперты отмечают биологическое оружие и утечки патогенов из лабораторий. Несмотря на то, что сфера биотехнологии приносит огромную выгоду, у нее также есть «пугающие перспективы» неправильного использования. Для решения данной проблемы исследователи рекомендуют создать руководящий совет по биобезопасности и проверять все синтезы ДНК на наличие опасных патогенов.

Вторую по значимости угрозу человечеству представляет искусственный интеллект. Вместо далеких сценариев конца света в стиле «Терминатора», эксперты поясняют, что даже широкое развертывание текущих возможностей ИИ «может привести к экстремальным рискам или способствовать их возникновению». Несчастные случаи и злонамеренное использование ИИ становятся все более опасными в результате его более распространенного применения в «критически важных для безопасности» технологиях, таких как беспилотные автомобили и военное оборудование.

Исследователи призывают усилить надзор и отслеживание исследований в области ИИ, а также обновить определение введенный Министерством обороны термин «летальное автономное оружие».

Ученые доказали: чтение нашего канала продлевает жизнь!

Ладно, не доказали. Но мы работаем над этим

Поучаствуйте в эксперименте — подпишитесь