Как ИИ превратил фишинг в неуязвимое оружие.
Традиционные методы определения фишинговых писем по грамматическим ошибкам и навязчивому стилю общения больше не работают. Как сообщается в новом отчёте компании Cofense Intelligence под названием «AI Alone is Not Bulletproof» , злоумышленники начали активно использовать ChatGPT и другие ИИ-инструменты для создания безупречных текстов.
Несмотря на то, что специалисты по кибербезопасности также применяют искусственный интеллект для защиты электронной почты, многие фишинговые письма всё равно попадают в почтовые ящики пользователей. Основная проблема заключается в том, что модели искусственного интеллекта и машинного обучения обучаются на исторических данных, в то время как новые угрозы развиваются молниеносно.
При этом системы на базе ИИ демонстрируют определённые успехи. По данным Cofense Intelligence, искусственный интеллект способен понимать логику подозрительных писем и распознавать технику тайпсквоттинга — когда хакеры используют опечатки для перенаправления пользователей на вредоносные сайты, например, «vvindows[.]com» или «wallrnart[.]com».
Автор отчёта Джейкоб Малимбан отмечает, что ИИ может как помогать организациям, так и наносить им вред, особенно если модель недостаточно обучена и оставлена без присмотра. Современные шлюзы безопасности электронной почты способны блокировать сообщения с призывами к срочным действиям, однако ситуация усложняется, когда хакеры используют автоматизированные инструменты для сбора информации о сотрудниках компании.
Эксперты предупреждают об опасности компрометации учётных записей — злоумышленники могут обучить ИИ копировать стиль письма жертвы. В сочетании с возможностью отвечать в существующих цепочках писем от имени взломанного аккаунта, это делает новые цели менее бдительными.
Отдельную угрозу представляют дипфейки, позволяющие имитировать внешность и голоса доверенных контактов с растущей точностью. Даже компания LastPass, специализирующаяся на кибербезопасности, признала , что стала жертвой мошенничества с использованием дипфейка, когда злоумышленники подделали голос генерального директора.
Cofense Intelligence приводит пример атаки , в ходе которой преступники смогли имитировать голоса финансового директора и других сотрудников во время конференц-звонка, убедив организацию-жертву перевести средства. Эта изощрённая атака обошлась компании в 25 миллионов долларов.
Искусственный интеллект также демонстрирует низкую эффективность при анализе писем, требующих действий от пользователя, например, сканирования QR-кода. Мошенники легко обходят защиту, встраивая вредоносные ссылки или QR-коды в PDF-файлы и используя CAPTCHA для усложнения автоматического анализа.
По мнению экспертов, наступательный ИИ, используемый злоумышленниками, будет развиваться быстрее защитного, поскольку не ограничен правовыми, авторскими или этическими нормами.
Храним важное в надежном месте