В даркнете обнаружены тысячи реалистичных, но, к счастью, поддельных изображений сексуализированного насилия над детьми

В даркнете обнаружены тысячи реалистичных, но, к счастью, поддельных изображений сексуализированного насилия над детьми

Теперь правоохранителям ещё сложнее бороться с растлителями малолетних.

image

Эксперты по защите детей заявляют, что они не могут противостоять тысячам «изображений сексуального насилия над детьми, созданных искусственным интеллектом», которые легко и быстро создаются и распространяются на тёмных форумах педофилов, сообщает The Washington Post.

Этот «взрыв» пугающе реалистичных изображений может способствовать нормализации сексуализированного насилия над несовершеннолетними, привлечь настоящих детей в ловушку и затруднить работу правоохранительных органов по поиску реальных жертв, заявили эксперты.

Поиск жертв, изображённых на подобных материалах, и так является «проблемой уровня иголки в стоге сена», заявила Ребекка Портнофф, директор по научным данным в некоммерческой организации по защите детей Thorn. Теперь правоохранительные органы будут ещё больше отставать в расследованиях из-за необходимости определения, являются ли материалы реальными или нет.

Вредоносные материалы, созданные искусственным интеллектом, также могут повторно навредить реальным жертвам, чьи изображения из прошлого использовались для обучения моделей искусственного интеллекта для создания фальшивых изображений.

Как правоохранительные органы, так и эксперты по защите детей сообщают, что сгенерированные таким образом изображения всё больше популяризируются на тёмных форумах педофилов, а многие пользователи Интернета рассматривают этот контент как альтернативу торговле незаконными материалами сексуализированного насилия над реальными детьми (CSAM).

По данным ActiveFence, которая разрабатывает инструменты доверия и безопасности для онлайн-платформ и потоковых сайтов, «примерно 80 процентов респондентов» опроса, проведенного на тёмном форуме с 3000 участниками, заявили, что «они использовали или намеревались использовать инструменты искусственного интеллекта для создания изображений сексуализированного насилия над детьми».

Компания Stability AI, чья нейросеть, вероятно, и используется для генерации подобного контента, сообщила The Washington Post, что она запрещает создание непристойных материалов, сотрудничает с правоохранительными органами для поиска нарушителей своих политик и удаляет эксплицитный материал из своих обучающих данных, чтобы предотвратить будущие попытки создания подобного рода контента.

Однако The Washington Post ловко парировала тем, что такие защитные механизмы несовершенны, потому что кто угодно может скачать Stable Diffusion на свой компьютер и использовать его, как угодно. Любые фильтры могут быть легко обойдены банальным добавлением нескольких строк кода, о чём в интернете написано уже множество гайдов.

Хотя некоторые пользователи, использующие ИИ для генерации изображений, и даже некоторые юридические аналитики считают, что такой контент потенциально не является незаконным, потому что реальные дети не страдают в ходе его производства, некоторые должностные лица Министерства юстиции США (DoJ) сообщают, что изображения искусственного интеллекта, сексуализирующие несовершеннолетних, всё ещё нарушают федеральные законы по защите детей.

По мере того, как власти становятся всё более осведомлёнными о растущей проблеме, общественность предупреждают о необходимости скорректировать своё онлайн-поведение, чтобы предотвратить виктимизацию. Так, эксперты советуют родителям установить ограничения на то, кто может видеть фотографии и видео их детей, чтобы оно не было использовано в «неправильных» целях.

Ранее в этом месяце ФБР также выпустило предупреждение о том, что злоумышленники на основе обычных и никак не нарушающих закон фотографиях способны создавать синтетический контент (deepfake), включая сексуальные материалы как с несовершеннолетними детьми, так и со взрослыми.

Красная или синяя таблетка?

В Матрице безопасности выбор очевиден

Выберите реальность — подпишитесь