Мужчина использовал Stable Diffusion для создания запрещенных материалов.
Житель Холмена, Висконсин, Стивен Андерегг, 42 года, был арестован за создание, распространение и хранение материалов с сексуальным насилием над детьми (CSAM), созданных с использованием генеративного искусственного интеллекта.
Андерегг якобы использовал популярную текстово-графическую модель Stable Diffusion для создания изображений сексуального характера с участием несовершеннолетних.
«Многие из этих изображений изображали обнаженных или частично одетых несовершеннолетних, непристойно демонстрирующих или касающихся своих гениталий, либо занимающихся сексуальными актами с мужчинами», — говорится в заявлении Министерства юстиции США.
Собранные доказательства с устройств Андерегга показывают, что он намеренно создавал сексуальные изображения детей до наступления половой зрелости, используя для этого текстовые подсказки сексуального характера.
Андерегг также общался с 15-летним подростком, которому он отправлял материалы сексуального характера через Instagram. Мужчина также объяснил подростку, как создавал CSAM и какие текстовые подсказки использовал.
Андерегг был выявлен благодаря «киберсовету от Национального центра по пропавшим и эксплуатируемым детям (NCMEC), после того как Instagram сообщил об аккаунте Андерегга за распространение этих изображений».
«Федеральное большое жюри в Западном округе Висконсина вынесло обвинительное заключение 15 мая, обвиняя Андерегга в создании, распространении и хранении непристойных визуальных изображений несовершеннолетних, участвующих в сексуально-эксплицитном поведении, а также в передаче непристойного материала несовершеннолетнему до 16 лет».
Если его признают виновным, Андереггу может грозить максимальное наказание в виде до 70 лет тюремного заключения с обязательным сроком в пять лет.
«Технологии могут меняться, но наша приверженность защите детей останется неизменной», – заявила заместитель генерального прокурора Лиза Монако.
«Министерство юстиции будет активно преследовать тех, кто производит и распространяет материалы, содержащие сексуальное насилие над детьми (CSAM), независимо от способа их создания. Проще говоря, CSAM, созданный с помощью ИИ, все равно остается CSAM, и мы привлечем к ответственности тех, кто использует ИИ для создания непристойных, насильственных и все более фотореалистичных изображений детей», – заключила Монако.
Большой взрыв знаний каждый день в вашем телефоне