Снимки будут анализировать специальные алгоритмы с целью поисков материалов детской порнографии.
Apple разрабатывает систему сканирования фотографий пользователей iPhone на предмет незаконных снимков. Об этом в своем Twitter сообщил эксперт по безопасности Мэтью Грин, доцент Института информационной безопасности Джонса Хопкинса.
Как сообщается, снимки будут просматриваться программой с целью поиска запрещенных фотоматериалов, таких как детская порнография или иная эксплуатация несовершеннолетних. Система будет работать на устройствах пользователей продукции Apple. Если в галерее будет найден подозрительный контент, то снимки будут отправляться сотрудникам на проверку.
I’ve had independent confirmation from multiple people that Apple is releasing a client-side tool for CSAM scanning tomorrow. This is a really bad idea.
— Matthew Green (@matthew_d_green) August 4, 2021
Мэтью Грин скептически отнесся к разработке. Конечно, она позволит, например, выявлять детскую порнографию, хранящуюся на устройствах, но в то же время в случае утечки технология может стать опасным оружием в руках авторитарных правительств.
Разбираем кейсы, делимся опытом, учимся на чужих ошибках