Как израильская армия адаптировала популярный медиасервис под свои нужды?
По информации издания The New York Times, военная разведка Израиля активно применяет в секторе Газа общедоступный сервис Google Photos в качестве альтернативы имеющейся профессиональной системы для распознавания лиц.
Израиль не так давно начал использовать технологию распознавания лиц в попытках поиска заложников в Газе, но вскоре её применение расширилось на поиск любых связей с ХАМАС или другими военизированными группами.
Разработанная частной израильской компанией Corsight, данная технология обещала высокую точность распознавания лиц даже при их частичном попадании в кадр. Несмотря на это, уже были зафиксированы случаи ложных срабатываний данной коммерческой системы, что поспособствовало арестам мирных жителей из-за их ошибочной идентификации как связанных с ХАМАС.
Иными словами, технология Corsight оказалась недостаточно совершенной, однако израильские солдаты долго не принимали это во внимание и полностью доверяли ей. Когда же они осознали, что погрешность распознавания слишком велика, то начали использовать Google Photos в дополнение к основной системе, загружая в сервис данные о лицах, которые следовало идентифицировать.
Один из офицеров отметил, что возможности Google по распознаванию лиц превосходят аналогичные возможности Corsight, однако последняя обладает гибкими настройками, поэтому всё ещё используется израильскими военными.
Представитель Google заявил, что Google Photos — это общедоступный продукт, предназначенный для организации фотографий путём группировки похожих лиц, однако он не предоставляет идентификацию неизвестных лиц на фотографиях. Данное высказывание во многом сняло с Google подозрения общественности в том, что продукт корпорации обладает какими-то скрытыми функциями, о которым стоило бы переживать обычным пользователям.
Из этой истории можно сделать вывод, что нельзя полностью полагаться на технологии распознавания лиц, так как они несовершенны и могут давать ложные результаты. А злоупотребление такими технологиями в военных целях может и вовсе привести к непоправимым последствиям.
К умозаключениям автоматизированных систем, будь то системы распознавания лиц или умные ассистенты, следует всегда относиться критически и обязательно проверять их достоверность. Ранее мы уже писали, как американские жители массово пострадали от отравления ядовитыми грибами, так как слепо доверились специализированному ИИ-приложению при сборе грибов в лесу.
Большой взрыв знаний каждый день в вашем телефоне