ООН собирается урегулировать использование ИИ в военных технологиях.
Использование беспилотников с искусственным интеллектом (ИИ) для целеуказания становится все более распространенным. Некоторые дроны способны самостоятельно детектировать цели и уничтожать их, что вызывает обеспокоенность среди исследователей и юристов. Разработка так называемого "летального автономного оружия" (LAWs) привлекает внимание всего мира, которые уже инвестировали значительные средства в программу создания таких устройств.
Дебаты о применении ИИ в вооруженных конфликтах не утихают, поскольку автономные оружейные системы могут снижать риск случайных жертв и повышать точность ударов. Однако также существует риск серьезных ошибок и этические вопросы относительно передачи решений о целеуказании алгоритмам.
Важным шагом в регулировании этой проблемы стало включение вопроса о LAWs в повестку дня Генеральной Ассамблеи ООН, запланированной на сентябрь. Генеральный секретарь ООН Антониу Гутерриш выразил желание запретить оружие, работающее без человеческого контроля, к 2026 году.
Вопросы контроля и регулирования такого оружия остаются предметом ожесточенных дискуссий, ведь международное сообщество еще не пришло к единому определению автономного оружия, что усложняет процесс его запрета. Это остается одной из основных проблем на пути к созданию международного соглашения о регулировании таких систем.
Однако некоторые эксперты считают, что существующие определения достаточно широки и могут позволить начать переговоры, не дожидаясь окончательного согласования терминологии. Введение четкого и реалистичного определения LAWs станет одним из ключевых вопросов на будущих обсуждениях.
Среди прочих вопросов, поднимаемых в рамках дебатов, значится проблема ответственности за действия автономного оружия. Этические дилеммы и юридические сложности, связанные с таким оружием, осложняют его интеграцию в современные военные стратегии.
Научные исследования показывают, что ИИ может превосходить человека в определенных аспектах ведения боя, например, в быстроте обработки изображений и принятии решений. Однако надежность таких систем и их способность к правильной идентификации целей остается под вопросом, особенно когда дело касается распознавания изображений с помощью камер.
Хотя автономное оружие может эффективно реагировать на радиочастотные или инфракрасные сигналы, визуальное распознавание изображений может быть подвержено серьезным ошибкам. Так, незначительные изменения в изображениях могут ввести в заблуждение нейросети, которые могут ошибочно классифицировать объекты.
Дополнительные этические соображения касаются использования автономного оружия для атаки или защиты. Некоторые ученые и военные предлагают сохранить "человека в петле" — принцип, согласно которому человек должен подтверждать цели перед запуском и иметь возможность отменить атаку, если условия на поле боя изменятся.
Тем не менее, даже при наличии человеческого контроля вопросы ответственности и прозрачности остаются открытыми. В случае ошибок или непредвиденных последствий использования автономного оружия, определить, кто именно несет ответственность, может быть сложно.
Обсуждения, начатые в ООН, и предстоящие переговоры могут привести к созданию рабочей группы для детального изучения этих вопросов и, возможно, к заключению международного договора. Эксперты и ученые надеются, что эти меры помогут сформировать более безопасное и этичное будущее использования ИИ в военных технологиях.
Никаких овечек — только отборные научные факты