Принадлежащая Alphabet компания Jigsaw выпустила бесплатную платформу, позволяющую журналистам выявлять поддельные изображения.
Принадлежащая Alphabet компания Jigsaw выпустила бесплатный инструмент, позволяющий журналистам выявлять поддельные фотографии, в том числе созданные с помощью искусственного интеллекта.
Как сообщает исполнительный директор Jigsaw Джаред Коэн (Jared Cohen), инструмент Assembler проходил тестирование в более десяти новостных организациях по всему миру, в частности в Animal Politico в Мексике, Rappler на Филиппинах и Agence France-Presse. Jigsaw не планирует предоставлять инструмент широкой общественности.
«В 2016 году мы начали работать с исследователями и учеными над созданием новых методов использования технологии для обнаружения определенных аспектов дезинформационных кампаний. Вместе с Google Research и другими партнерами мы создали экспериментальную платформу под названием Assembler с целью проверки, как технология может помочь фактчекерам и журналистам в выявлении и анализе поддельных медиа. […] Вдобавок, платформа создает пространство, где мы можем сотрудничать с другими исследователями, работающими над созданием технологии обнаружения», – сообщил Коэн.
В Assembler собраны вместе несколько инструментов для выявления признаков подделки изображений (фотомонтажа, коррекции яркости и пр.), разработанные разными учеными. В частности, в платформу включены инструменты от специалистов Университета Мэриленда, Университета Федерико II в Неаполе и Калифорнийского университете в Беркли.
Еще два инструмента были созданы специалистами Jigsaw. Один из них – StyleGAN, позволяющий выявлять изображения, созданные с помощью технологии Deepfake. Второй инструмент обучается с помощью комбинированных сигналов каждого инструмента, что позволяет ему анализировать изображение на предмет нескольких типов манипуляций одновременно.
Deepfake (от англ. «deep learning» – глубинное обучение и «fake» – подделка) – способ синтеза изображения, основанная на искусственном интеллекте. Используется для соединения и наложения одних изображений и видео на другие.
Ладно, не доказали. Но мы работаем над этим