Apple удалила все ссылки на функцию CSAM на своем сайте

Apple удалила все ссылки на функцию CSAM на своем сайте

Компания намерена выделить дополнительное время на сбор информации и улучшение функции.

Компания Apple «втихую» удалила на своей web-странице все упоминания функции безопасности, направленной на борьбу с запрещенным контентом (Child Sexual Abuse Material, CSAM).

Напомним, в августе нынешнего года техногигант начал разработку системы сканирования фотографий пользователей iPhone на предмет незаконных снимков. Специальная программа должна была анализировать снимки на предмет запрещенных фотоматериалов, связанным с насилием над детьми. Если в галерее обнаруживается подозрительный контент, снимки отправляются сотрудникам на проверку.

Функция подверглась критике со стороны широкого круга лиц и организаций, включая исследователей в области безопасности, Эдварда Сноудена, правозащитной организации Electronic Frontier Foundation (EFF), бывшего начальника службы безопасности Facebook, политиков, университетских исследователей и даже некоторых сотрудников Apple.

Большая часть критики была связана с использованием опасной технологии, граничащей со слежкой , а также с ее неэффективностью при выявлении запрещенного контента. Apple пыталась развеять некоторые недоразумения и успокоить пользователей, но разногласия не утихли.

Как сообщил представитель Apple Шейн Бауэр (Shane Bauer) изданию The Verge, хотя функция обнаружения CSAM больше не упоминается на ее сайте, компания не собирается останавливать ее разработку.

Мы нашли признаки жизни...в вашем смартфоне!

Наш канал — питательная среда для вашего интеллекта

Эволюционируйте вместе с нами — подпишитесь!