Security Lab

CSAM

CSAM (Child Sex Abuse Material) - материалы о сексуальном насилии над детьми.
CSAM является незаконным, так как его производство, распространение и потребление являются формами сексуального насилия над детьми.
Организации по защите детей, правоохранительные органы и другие соответствующие инстанции ведут активную борьбу с CSAM, чтобы защитить детей и пресечь данное явление.

Muah.ai: взлом показал, что люди хотят делать с ИИ-девушками

ИИ стал свидетелем самых сокровенных желаний пользователей.

Тюрьма за клик: Корея объявляет тотальную войну дипфейк-порно

Как дипфейки разрушают жизни южнокорейских женщин.

Цифровые следы в даркнете: как хакеры невольно помогают следствию

Специалисты показали, как вирусы стали частью расследования против распространителей CSAM.

Споры о Chat Control не угасают: модерация загрузки – новый бич безопасной коммуникации

Угроза тотальной слежки нарастает с каждым днём, а геополитическая нестабильность повышает риски злоупотреблений.

Жителю США грозит 70 лет за создание ИИ порно

Мужчина использовал Stable Diffusion для создания запрещенных материалов.

Кибервойна в Discord: CSAM-атаки становятся новым трендом среди мошенников

Преступники нашли коварный способ устранять конкурентов.

Обнаружены материалы сексуального насилия над детьми в обучающем наборе данных для Stable Diffusion

Число материалов, раскрытых Microsoft, может быть гораздо больше заявленного.

Совет по архитектуре Интернета: законы США и ЕС по сканированию устройств граждан уменьшают доверие к интернету

Под благими намерениями может скрываться массовое наблюдение и цензура.

Школьники создают непристойные ИИ-изображения сверстников

Школьники неосознанно помогают педофилам, делая одноклассников лёгкой добычей маньяков.

Соцсеть X потеряла контроль над детской порнографией после покупки Илоном Маском

Неадекватное поведение представителей X привело к штрафу регулятора.

Освещая тьму: Интерпол нанёс серьёзный удар по распространению материалов о сексуальном насилии над детьми

Бесчеловечные преступники были задержаны в Аргентине, Болгарии, Тайланде и даже России.

ИИ увеличивает риск сексуального насилия над детьми в реальной жизни

Борцы с киберпреступностью поднимают вопрос о тёмной стороне влияния ИИ на детей и педофилов.

Meta* открыла исходный код LLaMA энтузиастам, а те начали массово создавать чат-ботов для виртуального секса

Какой ценой допустимо продвигать инновации, и не пожалеет ли компания о своём решении?

В даркнете обнаружены тысячи реалистичных, но, к счастью, поддельных изображений сексуализированного насилия над детьми

Теперь правоохранителям ещё сложнее бороться с растлителями малолетних.

Опасная тенденция: генеративный ИИ и его роль в создании контента, подстрекающего насилие и экстремизм

Как бессовестные киберпреступники используют нейросети в своих гнусных целях.

Евросоюз призывает запретить сквозное шифрование сообщений граждан

Согласно документу, большинство стран ЕС поддерживают идею сканирования личных сообщений на предмет незаконного контента.

Австралия внедряет ИИ для защиты детей

Система AiLecs будет искать счастливых детей и ускорит расследования преступлений против них.

Великобритания призвала Facebook* читать сообщения пользователей

Технологические компании должны создать ПО для отслеживания запрещенных для детей материалов в сообщениях

Британия сможет легально читать сообщения граждан

Но только для защиты детей

ЕС вводит новые правила для борьбы с сексуальным насилием над детьми в Интернете

Мессенджеры смогут постоянно отслеживать сообщения пользователей