Мошенничество с deepfake: темная сторона искусственного интеллекта

Мошенничество с deepfake: темная сторона искусственного интеллекта
За последние несколько лет фейковые новости стали серьезной проблемой. Считается, что они сыграли важную роль в таких важных электоральных процессах как выборы Президента США в 2016 году и референдум по выходу Великобритании из Евросоюза (Brexit) в том же году.
В настоящее время существует еще один вид фейка, который вызывает серьезное беспокойство: дипфейк или deepfake (слово образовано от слов deep learning и fake). Дипфейк – это использование искусственного интеллекта для создания и редактирования вполне реалистичных аудио и видео-записей людей. Для этого дипфейки используют генеративно-состязательные сети ( Generative Adversarial Network ,  GAN), которые являются своего рода алгоритмом, способным создавать новые данные из существующих наборов данных (датасетов).

Например, GAN может анализировать тысячи записей голоса конкретного человека, а затем на основе этого анализа создать полностью новый аудио-файл с таким же точно голосом, использующим те же самые речевые шаблоны.

Беспокойство, связанное с данной технологией, вызывает тот факт, что существует возможность ее использования для создания и распространения фейковых аудио- и видео-записей политиков и других публичных персон. Например, дипфейк известного политика, который якобы выступает с расистскими лозунгами, может существенно повлиять на исход выборов или даже спровоцировать акты насилия.

Технология Deepfake и кибер-преступники
Хотя дипфейки пока не вызывают серьезных проблем в мире политики, но мы теперь уже увидели их первое использование в мире кибер-преступлений.

В августе этого года было установлено, что кибер-преступник использовал технологию дипфейков для осуществления мошеннических действий в отношении одной из компаний на сумму в 220 тысяч евро . Афера началась в марте 2019 года, когда мошенник создал дипфейк, имитирующий голос руководителя вышестоящей компании по отношению к компании-жертве.

Жертва, руководитель энергетической компании, получил звонок, который был от якобы руководителя этой вышестоящей компании. Во время звонка жертву попросили «срочно» перевести 200 000 фунтов стерлингов одному венгерскому поставщику, причем данный перевод чуть позже будет им компенсирован. Жертву обманули, заставив его поверить в то, что с ним разговаривал якобы его руководитель: он имел точно такой же голос и немецкий акцент, как и у его настоящего босса, что сделало эту аферу максимально правдоподобной.

Как только транзакция была подтверждена, мошенники снова перезвонили и попросили сделать еще один перевод. К этому времени обманутый руководитель энергетической компании уже начал подозревать что-то неладное и отказался осуществлять трансфер. Сообщается, что ранее переведенные средства были перечислены из Венгрии в Мексику, а затем они были переведены на другие счета.

Хотя в так называемом «голосовом мошенничестве» нет ничего нового, все же данный инцидент стал первым случаем использования технологии дипфейков. На самом деле, в период с 2013 по 2017 годы количество инцидентов с голосовым фишингом (vishing) выросло на 350% . Эксперты по информационной безопасности опасаются, что данный инцидент может положить начало новой тенденции в сфере кибер-преступлений, использующей искусственный интеллект таким способом.

Кибер-аферы: растущая угроза
Мошеннические усилия кибер-преступников по отношению к компаниям и организациям стали намного более активными и интенсивными. Например, финансовый ущерб от BEC-афер с 2017 по 2018 год удвоился, а потому не удивительно, что мы часто можем наблюдать заголовки новостей, связанных с этой кибер-преступной тактикой. Недавно был арестован 281 человек , которые обвиняются в проведении такого рода афер, а две недели назад Toyota объявила, что ее дочерняя компания из-за подобного рода аферы потеряла 37 миллионов долларов США .

Искусственный интеллект во имя добра и зла
Хотя представленный здесь пример показывает, что искусственный интеллект может использоваться для совершения кибер-преступлений, он также может быть использован и для их пресечений. Глубокое обучение (Deep learning) и машинное обучение (Machine learning) важны для автоматизации процессов обнаружения аномалий и кибер-угроз , которые могут угрожать ИТ-системам любой организации.

Кибер-преступники никогда не перестанут внедрять инновации в своих усилиях по поиску новых техник проникновения в корпоративные сети для кражи корпоративных данных и нелегального заработка. Вот почему крайне важно быть в курсе всех последних тенденций в мире информационной безопасности .



Оригинал статьи: Fraud with a deepfake: the dark side of artificial intelligence

Panda Security в России и СНГ
+7(495)105 94 51, marketing@rus.pandasecurity.com
https://www.cloudav.ru
Искусственный интеллект предприятие афера мошенничество фейк
Alt text
Обращаем внимание, что все материалы в этом блоге представляют личное мнение их авторов. Редакция SecurityLab.ru не несет ответственности за точность, полноту и достоверность опубликованных данных. Вся информация предоставлена «как есть» и может не соответствовать официальной позиции компании.

Мы расшифровали формулу идеальной защиты!

Спойлер: она начинается с подписки на наш канал

Введите правильный пароль — подпишитесь!

Облачные решения

Новости и события компании. Информационная безопасность IT-устройств дома, малого и среднего бизнеса, антивирусы.