Мошенничество с deepfake: темная сторона искусственного интеллекта
За последние несколько лет фейковые новости стали серьезной проблемой. Считается, что они сыграли важную роль в таких важных электоральных процессах как выборы Президента США в 2016 году и референдум по выходу Великобритании из Евросоюза (Brexit) в том же году.
В настоящее время существует еще один вид фейка, который вызывает серьезное беспокойство: дипфейк или deepfake (слово образовано от слов deep learning и fake). Дипфейк – это использование искусственного интеллекта для создания и редактирования вполне реалистичных аудио и видео-записей людей. Для этого дипфейки используют генеративно-состязательные сети ( Generative Adversarial Network , GAN), которые являются своего рода алгоритмом, способным создавать новые данные из существующих наборов данных (датасетов).
Например, GAN может анализировать тысячи записей голоса конкретного человека, а затем на основе этого анализа создать полностью новый аудио-файл с таким же точно голосом, использующим те же самые речевые шаблоны.
Беспокойство, связанное с данной технологией, вызывает тот факт, что существует возможность ее использования для создания и распространения фейковых аудио- и видео-записей политиков и других публичных персон. Например, дипфейк известного политика, который якобы выступает с расистскими лозунгами, может существенно повлиять на исход выборов или даже спровоцировать акты насилия.
Технология Deepfake и кибер-преступники
Хотя дипфейки пока не вызывают серьезных проблем в мире политики, но мы теперь уже увидели их первое использование в мире кибер-преступлений.
Жертва, руководитель энергетической компании, получил звонок, который был от якобы руководителя этой вышестоящей компании. Во время звонка жертву попросили «срочно» перевести 200 000 фунтов стерлингов одному венгерскому поставщику, причем данный перевод чуть позже будет им компенсирован. Жертву обманули, заставив его поверить в то, что с ним разговаривал якобы его руководитель: он имел точно такой же голос и немецкий акцент, как и у его настоящего босса, что сделало эту аферу максимально правдоподобной.
Как только транзакция была подтверждена, мошенники снова перезвонили и попросили сделать еще один перевод. К этому времени обманутый руководитель энергетической компании уже начал подозревать что-то неладное и отказался осуществлять трансфер. Сообщается, что ранее переведенные средства были перечислены из Венгрии в Мексику, а затем они были переведены на другие счета.
Хотя в так называемом «голосовом мошенничестве» нет ничего нового, все же данный инцидент стал первым случаем использования технологии дипфейков. На самом деле, в период с 2013 по 2017 годы количество инцидентов с голосовым фишингом (vishing) выросло на 350%. Эксперты по информационной безопасности опасаются, что данный инцидент может положить начало новой тенденции в сфере кибер-преступлений, использующей искусственный интеллект таким способом.
Кибер-аферы: растущая угроза
Мошеннические усилия кибер-преступников по отношению к компаниям и организациям стали намного более активными и интенсивными. Например, финансовый ущерб от BEC-афер с 2017 по 2018 год удвоился, а потому не удивительно, что мы часто можем наблюдать заголовки новостей, связанных с этой кибер-преступной тактикой. Недавно был арестован 281 человек, которые обвиняются в проведении такого рода афер, а две недели назад Toyota объявила, что ее дочерняя компания из-за подобного рода аферы потеряла 37 миллионов долларов США.
Искусственный интеллект во имя добра и зла
Хотя представленный здесь пример показывает, что искусственный интеллект может использоваться для совершения кибер-преступлений, он также может быть использован и для их пресечений. Глубокое обучение (Deep learning) и машинное обучение (Machine learning) важны для автоматизации процессов обнаружения аномалий и кибер-угроз, которые могут угрожать ИТ-системам любой организации.
Обращаем внимание, что все материалы в этом блоге представляют личное мнение их авторов. Редакция SecurityLab.ru не несет ответственности за точность, полноту и достоверность опубликованных данных. Вся информация предоставлена «как есть» и может не соответствовать официальной позиции компании.