Фильтр изменяет пиксели таким образом, что видео и изображения становятся непригодными для изготовления дипфейков.
С развитием новых технологий дипфейков определить достоверность той или иной информации, публикуемой в интернете, становится значительно сложнее. Подобные технологии позволяют с легкостью манипулировать изображениями и видео за счет использования нейронных сетей, способных симулировать речь, движения и внешний вид людей.
В этой связи группа ученых из Бостонского университета разработала алгоритм, позволяющий защитить изображения от использования в качестве основы дипфейков.
Алгоритм накладывает на изображение или видео невидимый фильтр, и если кто-то попытается использовать нейронную сеть для модификации этих файлов, они либо останутся без изменений, либо станут полностью искаженными - фильтр изменяет пиксели таким образом, что видео и изображения становятся непригодными для изготовления дипфейков.
Разработчики проекта разместили исходный код технологии на GitHub, а также опубликовали видео, демонстрирующее ее работу.
5778 К? Пф! У нас градус знаний зашкаливает!