Создатели CSAM призывают Apple не использовать опасную технологию

Создатели CSAM призывают Apple не использовать опасную технологию

Исследователи бьют тревогу по поводу технологии, лежащей в основе планов Apple сканировать библиотеки фотографий пользователей iPhone.

Исследователи Принстонского университета — доцент Джонатан Майер и аспирант Анунай Кулшреста — рассказали о создании системы обнаружения контента, к которому относятся изображения сексуального характера (CSAM — child sexual abuse material). Ранее аналогичную систему в целях детской безопасности запустила Apple.

Как сообщается, ученым после тщательного изучения вопроса удалось создать рабочий прототип такой системы. Однако после этого они обнаружили в ней серьезный неустранимый недостаток. Путем замены базы данных систему можно было работать в качестве инструмента цензуры и слежки.

При этом сами алгоритмы таковы, что невозможно сделать так, чтобы они работали только с контентом CSAM, всегда остается возможность для перестройки системы на любой другой контент.

Apple продолжает устранять обеспокоенность пользователей по поводу своих планов, публикуя дополнительные документы и страницу часто задаваемых вопросов. Apple по-прежнему считает, что ее система обнаружения CSAM, которая будет работать на устройстве пользователя, согласуется с ее давними ценностями конфиденциальности.

Теория струн? У нас целый оркестр научных фактов!

От классики до авангарда — наука во всех жанрах

Настройтесь на нашу волну — подпишитесь