Эксперты полагают, что искусственный интеллект не должен принимать решение о лишении жизни человека.
Гонка за милитаризацию искусственного интеллекта в последние годы становиться все более актуальной, и эксперты предупреждают о возможных рисках безопасности, которые может вызвать военный ИИ. Об этом сообщил ресурс Nature.
Комиссия по национальной безопасности и искусственному интеллекту США (National Security Commission on Artificial Intelligence, NSCAI) в марте нынешнего года порекомендовала властям США ускорить развитие технологий искусственного интеллекта, чтобы сохранить национальную безопасность и оставаться конкурентоспособными с Китаем и Россией.
В январе нынешнего года Европейский парламент издал директивы, согласно которым военный ИИ не должен подменять человеческие решения и надзор. Рекомендации NSCAI, напротив, выступают за «интеграцию технологий на базе искусственного интеллекта во все аспекты боевых действий». Около 4,5 тыс. исследователей технологий ИИ и робототехники заявили, что искусственный интеллект не должен принимать решение о лишении жизни человека, что соответствует руководящим принципам Европейского парламента и постановлениям Европейского союза.
NSCAI не уделяет первоочередного внимания международному сотрудничеству в создании новых правил. Более того, комиссия выступает против глобального запрета на автономное оружие, заявляя, что другим странам нельзя доверять его соблюдение. Однако гонка за милитаризацию ИИ может дестабилизировать мировой порядок. В отличие от ядерного оружия, ИИ уже повсеместно используется в гражданских сферах, поэтому риски двойного использования, например, летающих дронов или компьютерного ночного видения, намного выше.
В Матрице безопасности выбор очевиден