Как голос Бенедетто Виньи едва не убедил руководителя подразделения раскрыть свои тайны.
В июле этого года руководитель подразделения Ferrari NV начал получать неожиданные сообщения, исходящие якобы от Бенедетто Виньи, исполнительного директора компании Ferrari. Сообщения, которые поступили на WhatsApp руководителя гласили следующее: «Эй, слышал о крупном приобретении, которое мы планируем? Мне может понадобиться твоя помощь».
Разумеется, номер телефона и фото профиля WhatsApp не совпадали с теми, которыми Винья пользовался на самом деле. Прикинувшийся директором мошенник просил подписать соглашение о неразглашении, заверяя, что итальянский регулятор рынка и Миланская фондовая биржа уже проинформированы. В сообщении также подчёркивалась необходимость соблюдать максимальную секретность.
Затем злоумышленники позвонили потенциальной жертве и при помощи технологии дипфейк стали вести реалистичный разговор от лица директора. Голос, имитировавший Винью, был весьма убедителен, включая южноитальянский акцент.
Мошенник объяснил руководителю подразделения, что звонит с другого номера из-за необходимости обсуждать конфиденциальный вопрос, связанный с возможными проблемами в Китае и необходимостью валютной хедж-транзакции.
Руководитель заподозрил подлог, заметив незначительные механические интонации в голосе. Он спросил, какое название книги Винья недавно ему рекомендовал, и после этого звонок внезапно оборвался. Затем Ferrari начала внутреннее расследование.
Эти события, как сообщают информированные источники, стали одной из последних попыток использования дипфейковых технологий для атаки на международно признанную компанию. Ferrari удалось избежать ущерба, однако в случае с более подготовленными злоумышленниками, кто знает, возможно, руководитель и не заметил бы подвоха.
Тем временем, использование дипфейков становится всё более распространённым. Так, в мае этого года генеральный директор рекламного гиганта WPP Plc Марк Рид также стал жертвой неудавшегося дипфейкового мошенничества.
По словам Рейчел Тобак, генерального директора компании по кибербезопасности SocialProof Security, количество попыток использовать голосовые клоны с помощью ИИ в этом году резко возросло. Тем не менее, хотя технологии генеративного ИИ могут создавать убедительные дипфейковые изображения, видео- и аудиозаписи пока не стали достаточно качественными и надёжными для массового обмана.
Однако некоторые компании уже пострадали от мошенников. Так, в начале этого года неназванная многонациональная компания потеряла 26 миллионов долларов США после того, как мошенники с помощью дипфейков обманули сотрудников этой фирмы в Гонконге.
Некоторые компании, такие как CyberArk, уже обучают своих руководителей распознавать, когда их пытаются обмануть с помощью ботов. Профессор кибербезопасности Стефано Занеро из Миланского политехнического университета считает, что со временем подобные ИИ-инструменты станут невероятно точными.
Гравитация научных фактов сильнее, чем вы думаете