Исследователи бьют тревогу по поводу технологии, лежащей в основе планов Apple сканировать библиотеки фотографий пользователей iPhone.
Исследователи Принстонского университета — доцент Джонатан Майер и аспирант Анунай Кулшреста — рассказали о создании системы обнаружения контента, к которому относятся изображения сексуального характера (CSAM — child sexual abuse material). Ранее аналогичную систему в целях детской безопасности запустила Apple.
Как сообщается, ученым после тщательного изучения вопроса удалось создать рабочий прототип такой системы. Однако после этого они обнаружили в ней серьезный неустранимый недостаток. Путем замены базы данных систему можно было работать в качестве инструмента цензуры и слежки.
При этом сами алгоритмы таковы, что невозможно сделать так, чтобы они работали только с контентом CSAM, всегда остается возможность для перестройки системы на любой другой контент.
Apple продолжает устранять обеспокоенность пользователей по поводу своих планов, публикуя дополнительные документы и страницу часто задаваемых вопросов. Apple по-прежнему считает, что ее система обнаружения CSAM, которая будет работать на устройстве пользователя, согласуется с ее давними ценностями конфиденциальности.
От классики до авангарда — наука во всех жанрах