ИИ играет все более важную роль в управлении разрушительным оружием, и даже одна ошибка может стать катастрофической.
Предоставление искусственному интеллекту контроля над ядерным оружием может спровоцировать апокалиптический конфликт, предупредил научный сотрудник Закари Келленборн (Zachary Kellenborn) Школы политологии и теории управления имени Шара (Schar School of Policy and Government).
ИИ играет все более важную роль в управлении разрушительным оружием, включая американский ядерный бомбардировщик B-21, китайские гиперзвуковые ракеты с искусственным интеллектом и российский ядерный беспилотник «Посейдон».
«Если бы искусственный интеллект контролировал ядерное оружие, все мы могли бы погибнуть. Военные все чаще включают автономные функции в системы вооружения. Нет гарантии, что некоторые военные не поставят ИИ во главе ядерных пусков», — сообщил Келленборн в статье в журнале Bulletin of the Atomic Scientists.
По словам эксперта, в контексте ядерного оружия у правительства может быть мало данных о военных платформах противника. Существующие данные могут быть структурно предвзятыми, например, из-за того, что они полагаются на спутниковые снимки. Данные могут не учитывать очевидные, ожидаемые изменения, такие как изображения, сделанные в туманную, дождливую или пасмурную погоду.
Обучение программ ядерного оружия на базе искусственного интеллекта также представляет собой серьезную проблему, поскольку ядерное оружие использовалось только дважды и реальных данных недостаточно.
От классики до авангарда — наука во всех жанрах