Возможность создания высококачественных цифровых подделок вызывает серьезную обеспокоенность, так как технология дипфейка легко может обмануть невооруженный глаз.
Автор: Клэр Вудкок, старший продуктовый менеджер, машинное обучение и биометрия, Onfido.
В последнее время тема дипфейков получила широкое развитие и превратились из нишевой области в мейнстримный феномен. Пользователи сети теперь хорошо понимает удивительные возможности цифровых манипуляций - от «Альтернативного рождественского послания» 4-го канала до вирусных «видео Тома Круза в TikTok».
Возможность создания высококачественных цифровых подделок вызывает серьезную обеспокоенность, так как технология дипфейка легко может обмануть невооруженный глаз. Похожие этические проблемы ранее возникали в связи с технологией воплощения звука. Например, в 2016 году прототип для редактирования и создания звука Adobe Voco, умевший имитировать голос конкретного человека на основании его 20 минутной речи, так и не был выпущен из-за возникших проблем этического характера. Такое решение нельзя назвать необоснованным, учитывая, что в 2019 году генеральный директор британской энергетической компании был обманут на 220 000 евро изощренным преступником, которому удалось выдать себя за голос своего босса, изобразив даже небольшой немецкий акцент и мелодичные оттенки речи.
Но представляют ли дипфейки такой же риск в 2021 году?
На сегодняшний день существует три основных фактора, способствующих созданию дипфейков. Первый и наиболее известный, - это новинки и развлечения. Создатели «Альтернативного рождественского послания», несомненно, являются артистами, которые представили новый вид перформанса.
К сожалению, потенциал технологии дипфейков можно использовать и со злыми намерениями. Серьезные опасения вызывает возможность создания поддельных видеороликов, в которых человек говорит все, что вы хотите.
Однако, непосредственную угрозу представляет создание поддельных порнографических роликов, которые в дальнейшем используются для порномести. По статистике Sesity AI, подобные ролики составляют 90% -95% от всех дипфейковых видео, отслеживаемых с декабря 2018 года.
Наконец, третий растущий тренд - использование дипфейков для мошенничества. Анализ специалистов по мошенничеству с идентификационной информацией компании Onfido показал, что в 2019 году киберпреступники начали впервые использовались дипфейки для атак.
Насколько это опасно?
В настоящее время дипфейки не являются распространенным вектором мошенничества с идентификационной информацией. Однако цифровые манипуляции представляют угрозу для методов биометрической аутентификации. Преступник может выдавать себя за другого человека на основании его цифровой личности.
Подобный вид киберпреступлений – не для мошенников-любителей. Создание убедительных дипфейков требует как большого технического опыта, так и большой вычислительной мощности, в отличие от морфинга лица, который включает цифровое изменение статических изображений и может быть заказан онлайн. Профессиональным преступникам придется потратить много времени на развитие своих способностей, прежде чем они смогут приступить к процессу разработки дипфейк-видео.
Тем не менее, не стоит полагаться на высокий технический барьер для предотвращения использования дипфейков для попыток мошенничества с идентификационной информацией. Как и в случае с любой другой техникой мошенничества, “продвинутые” участники киберпреступного сообщества могут упаковать код, что позволит всем остальным использовать данную технику. Такая возможность делает мошенническое использование технологии дипфейков реальной угрозой, которую компаниям следует учесть и опередить.
Организации, работающие с состоятельными людьми, должны проявлять особую осторожность, поскольку они, скорее всего, станут основными целями киберпреступников. Почему? Во-первых, преступник должен быть уверен, что первоначальные вложения в создание персонализированного видео принесут достаточно хорошую прибыль. Во-вторых, для убедительного дипфейка обычно требуется от шести до девяти минут видеозаписи. Поэтому атаки будут нацелены на тех, кто пользуется большим авторитетом в СМИ или регулярно публикует видео в социальных сетях .
Как биометрическая аутентификация обнаруживает дипфейки?
Хотя дипфейки пока нельзя назвать угрозой, с которой мы регулярно сталкиваемся, для обнаружения дипфейков в технологии аутентификации видеоидентификации используется ряд важных методов. Во-первых, биометрический анализ на основе искусственного интеллекта может очень точно определить, является ли представленное видео подделкой. Для проверки физического присутствия пользователя используются такие методы, как анализ губ, движения и текстуры.
Во-вторых, рандомизируя инструкции, которые пользователи должны выполнять для аутентификации. Например, пользователям предлагается смотреть в разные стороны или читать фразу. Есть тысячи возможных запросов, которые создатели дипфейков просто не могут предсказать. Те пользователи, которые постоянно отвечают неправильно, попадают на дополнительное расследование. Хотя дипфейками можно манипулировать в режиме реального времени, качество видео значительно ухудшается, так как требуемая большая вычислительная мощность не позволяет быстро реагировать на изменения.
Наконец, преступники должны убедить системы проверки личности, что дипфейковое видео снимается в прямом эфире с помощью оборудования телефона. Для этого преступники должны имитировать мобильный телефон на своем компьютере. Программное обеспечение для управления идентификацией может обнаружить компьютер и раскрыть мошенничество.
Дипфейк входит в экосистему мошенничества
Угроза мошенничества с использованием личных данных постоянно растет. Мошенники постоянно совершенствуют свои навыки, ищут новые и более изощренные способы избежать обнаружения. Дипфейки - всего лишь одна из новых угроз, широкий спектр которых затрагивает различные связи и компетенции профессиональных преступников.
Например, 3D-маски являются новой быстрорастущей тенденцией, составляющей 0,3% случаев мошенничества с идентификационными данными, обнаруженного продуктами для селфи Onfido в период с октября 2019 года по октябрь 2020 года. Данная технология гораздо более доступна для мошенников без серьезных технических навыков, а также популярна среди любителей театра, поскольку они имеют возможность купить потрясающе реалистичные маски в Интернете. В Японии также растет число случаев, когда мошенникам физически изменяли свои черты с помощью пластической хирургии, чтобы выдать себя за отдельного человека. Конечно, это крайний подход, но часто операция гораздо дешевле, чем ввод в эксплуатацию сложного дипфейка, особенно при наличии медицинских связей. Поскольку дипфейки требуют значительного уровня технической специализации, преступники должны либо пройти через трудоемкий подход к разработке, либо, в случае заказа, потребуются большие затраты.
Тем не менее, несмотря на то, что мошенничество с дипфейками пока не сильно распространено, организациям не следует сразу же отказываться от учета риска дипфейков. Особенно это касается компаний, у которых есть состоятельные клиенты. Как показал недавний дипфейк с Томом Крузом, профессионалы могут создавать высококачественные дипфейковые видео, производящие неизгладимое впечатление. Как и в случае с любой новой тенденцией мошенничества, организациям следует учесть данный риск и заранее подготовиться, а не ждать инцидента, чтобы отреагировать. По мере того, как аппетит киберпреступников растет, а технический барьер падает, очень важно, чтобы организации задумались, справятся ли их решения по проверке личности с выявлением дипфейков.
5778 К? Пф! У нас градус знаний зашкаливает!