Вместо помощи — господство: ИИ может лишить людей реальной власти

leer en español

Вместо помощи — господство: ИИ может лишить людей реальной власти

Как сохранить влияние человека в мире умных машин?

image

Искусственный интеллект может постепенно лишить человечество контроля над ключевыми системами общества, предупреждают исследователи из Карлова университета в Праге и Telic Research. В своей работе они описывают новый экзистенциальный риск — «постепенное лишение власти» человеческого влияния, которое может привести к необратимым последствиям.

Авторы исследования подчеркивают, что даже небольшие улучшения ИИ способны подорвать влияние человека на экономику, культуру и государственные институты. В отличие от сценариев внезапного захвата власти сверхразумными машинами, этот процесс развивается постепенно: системы на базе ИИ все больше заменяют человеческий труд и принятие решений, что ослабляет как явные механизмы контроля (например, выборы и потребительский спрос), так и неявное соответствие ИИ человеческим интересам.

Чем меньше социальные и экономические системы зависят от людей, тем меньше у них остается возможностей для воздействия на эти процессы. К примеру, если искусственный интеллект управляет экономикой, он может оптимизировать ее по параметрам, не учитывающим интересы большинства людей. Со временем это приведет к тому, что человечество утратит рычаги влияния на ключевые сферы жизни.

Исследование рассматривает три ключевые сферы, в которых постепенное лишение власти людей может привести к серьезным последствиям:
  1. Экономика. В отличие от предыдущих технологий, ИИ способен заменить не только физический, но и когнитивный труд практически во всех отраслях. Рыночные механизмы и отсутствие жесткого регулирования создают мощные стимулы для его внедрения. В лучшем случае это приведет к относительному обесцениванию, при котором люди остаются в достатке, но теряют экономическое влияние. В худшем — к абсолютному обесцениванию, когда люди окажутся неспособными обеспечивать даже базовые потребности.
  2. Культура. Искусственный интеллект может заменить человека во всех ключевых культурных сферах, от журналистики до искусства. Проблема в том, что общество не обладает «культурными антителами» для противостояния этому влиянию. Относительное обесценивание выразится в том, что традиционная культура останется, но потеряет влияние. Абсолютное — в том, что культурная эволюция выйдет за пределы человеческого понимания и управления.
  3. Государственное управление. ИИ способен сократить зависимость государств от человеческого участия. Политическая конкуренция, бюрократическая эффективность и желание элит усилить контроль ускорят внедрение ИИ в управление. В результате граждане могут постепенно утратить реальный контроль над государственными институтами. В крайнем случае ИИ-управляемые государства могут стать самоподдерживающимися структурами, где приоритетом станет не благополучие людей, а собственная власть.

Исследователи предлагают несколько стратегий, которые помогут предотвратить потерю контроля над социальными системами:

  • Разработка метрик для измерения уровня обесценивания человеческого участия в экономике, культуре и политике.
  • Введение механизмов регулирования ИИ через законы, налоговые инструменты и культурные ограничения.
  • Усиление демократических процессов и повышение осведомленности граждан о рисках ИИ.
  • Создание «ИИ-депутатов», которые будут представлять человеческие интересы при разработке решений.
  • Фундаментальные исследования в области социотехнического баланса, направленные на обеспечение согласования ИИ с долгосрочными интересами человечества.

Исследователи подчеркивают, что проблема заключается не только в предотвращении агрессивного поведения ИИ, но и в сохранении способности человека управлять ключевыми общественными процессами. Без четкого понимания того, как поддерживать реальное влияние людей в мире, управляемом алгоритмами, человечество рискует оказаться в положении, из которого невозможно будет выбраться.

Ищем баги вместе! Но не те, что в продакшене...

Разбираем кейсы, делимся опытом, учимся на чужих ошибках

Зафиксируйте уязвимость своих знаний — подпишитесь!