Теперь ИИ будет выбирать, кого сажать в тюрьму, основываясь на человеческих предубеждениях и стереотипах.
Два разработчика использовали модель генерации изображений DALL-E 2 от OpenAI для создания программы для криминалистических эскизов, которая может создавать «сверхреалистичные» фотороботы подозреваемых на основе текстового описания.
Программа под названием Forensic Sketch AI-rtist была создана разработчиками Артуром Фортунато и Филипе Рейно в рамках хакатона в декабре 2022 года. Разработчики написали, что цель программы — сократить время, которое обычно требуется для определения подозреваемого, которое составляет «около двух-трех часов».
Разработчики заявили, что их продукт ещё не выпущен, поэтому у них нет активных пользователей. На данный момент авторы проекта хотят убедиться — сможет ли Forensic Sketch AI-rtist использоваться в реальном сценарии или нет. Для этого они планируют связаться с полицейскими управлениями, чтобы получить исходные данные, на которых можно проверить работу технологии.
Специалисты по этике и исследователи ИИ сообщили, что использование генеративного ИИ в полицейской криминалистике очень опасно и может усугубить существующие расовые и гендерные предубеждения, которые проявляются в первоначальных описаниях свидетелей.
Для генерации фоторобота пользователь должен предоставить информацию либо через шаблон, который запрашивает описание пола, цвета кожи, бровей, носа, бороды, возраста, волос, глаз и челюсти, либо через функцию открытого описания, в которой пользователь может ввести любое описание подозреваемого. Затем DALL-E 2 создаст портрет, исходя из введённых данных.
Пример сгенерированного изображения подозреваемого
«Исследования показали, что люди помнят лица целостно, а не по чертам. Процесс наброска, основанный на описаниях отдельных черт, как в этой программе искусственного интеллекта, может привести к тому, что сгенерированное лицо будет разительно отличаться от лица преступника», — сказала Дженнифер Линч, директор по судебным разбирательствам в Electronic Frontier Foundation (EFF).
«К сожалению, как только свидетель увидит изображение, этот образ может заменить в его сознании смутное воспоминание о настоящем подозреваемом. Это только усугубляется сгенерированным изображением, которое выглядит более «реальным», чем нарисованный от руки эскиз», — добавила она.
Фортунато и Рейно заявили, что их программа исходит из предположения, что полицейские описания заслуживают доверия и что «полицейские должны нести ответственность за то, чтобы был опубликован правильный набросок». По словам разработчиков, любые созданные несоответствия должны быть исправлены либо вручную, либо автоматически (запросив у ИИ изменения), а полученный рисунок будет считаться работой самого художника при содействии EagleAI и свидетеля.
Примеры сгенерированных изображений
Конечная цель этого продукта — создать максимально реалистичный рисунок подозреваемого и исправить любые несоответствия во внешности. Модель, скорее всего, не даст идеального результата с первой попытки, поэтому для достижения наилучшего результата потребуются итерации.
Сами разработчики признают, что нет метрик для измерения точности сгенерированного изображения. В уголовном деле неточности не могут быть исправлены до тех пор, пока подозреваемый не будет найден или уже не отбыл срок в тюрьме.
OpenAI отказалась комментировать запись об использовании своей технологии в проекте Фортунато и Рейно.
Forensic Sketch AI-rtist – это не первая спорная разработка, которая привлекла к себе внимание экспертов. Ранее в январе ИИ назвала преступником чернокожего мужчину , которого даже не было на месте преступления. Вскоре он был задержан за бегство с места преступления. Эта ситуация вновь привлекла внимание к расовому неравенству в использовании искусственного интеллекта.
Одно найти легче, чем другое. Спойлер: это не темная материя