Письмо от ИИ? Это не спам, это твой новый босс

Письмо от ИИ? Это не спам, это твой новый босс

ИИ обогнал хакеров, а мы всё ещё ищем письмо от нигерийского принца.

image

Согласно новому отчету Hoxhunt, с марта 2025 года искусственный интеллект впервые доказал своё превосходство в социальной инженерии над лучшими специалистами по кибербезопасности.

В рамках многолетнего эксперимента, стартовавшего в 2023 году, специально обученный ИИ-агент начал создавать фишинговые письма, которые эффективнее обманывали пользователей, чем сценарии от опытных «человеческих» команд. Разрыв в эффективности вырос на 55%, и это изменило саму суть борьбы с фишингом.

Если 2 года назад ИИ уступал по результатам людям почти на треть, то уже к ноябрю 2024 года отставание сократилось до 10%. А в марте 2025 года ИИ неожиданно обогнал человека по всем ключевым показателям. Новые сценарии атак, сгенерированные ИИ, стали не только убедительнее, но и персонализированными — учитывались страна, должность и поведенческие особенности жертвы. Всё это стало возможно благодаря мощным языковым моделям и механизму улучшения алгоритмов от итерации к итерации.

Программа тестирования включала два направления: создание с нуля фишинговых писем и улучшение атак, придуманных людьми. Оценка эффективности строилась по трём критериям — пользователь мог распознать и сообщить об атаке, не заметить её или попасться на удочку, кликнув по ссылке. Основной метрикой стала доля провалов — то есть процент пользователей, перешедших по вредоносной ссылке.

Именно этот показатель стал индикатором тревожного сдвига. В 2023 году провалились 2,9% пользователей на атаках от ИИ и 4,2% на письмах от людей. Спустя год разрыв практически исчез — 2,1% против 2,3%. А к началу 2025 года ситуация изменилась — ИИ-атаки привели к 2,78% провалов, тогда как человеческие — лишь к 2,25%. Это означало, что ИИ стал обманчивее даже для опытных сотрудников, прошедших полгода и более обучения.

Стоит отметить, что большинство ИИ-атак пока остаются в пределах этичного тестирования. В реальных атаках использование генеративного ИИ ещё не столь массовое. Только от 0,7% до 4,7% фишинговых писем, обходящих фильтры, в 2024 году были написаны ИИ. Но общий объём фишинга с начала эпохи ChatGPT увеличился на 4151%, а число успешных обходов фильтров выросло почти на 50%.

Такие цифры ясно указывают: вектор угроз меняется. Комплаенс-обучение сотрудников постепенно уходит в прошлое, уступая место адаптивным платформам управления человеческими рисками. Поведенческое обучение, построенное на реальных атаках и подкреплённое ИИ-инструментами, показывает гораздо более устойчивые результаты против как человеческих, так и машинных атак.

Наиболее эффективной формой защиты остаётся именно адаптивное обучение. Использование ИИ-агентов, способных имитировать поведение злоумышленников, но применяемых для тренировок, помогает вырабатывать устойчивость к социальной инженерии на всех уровнях.

В перспективе массовое распространение ИИ-фишинга неизбежно. Как только технологии генерации фишинга станут простыми в применении, они будут интегрированы в модели фишинга как услуги. Это поднимет качество массовых атак до уровня, который ранее был доступен только в таргетированных сценариях.

Но пока это не стало реальностью, у компаний есть окно возможностей для подготовки. Новые платформы должны объединить обучение, реальные данные об угрозах и интеграцию с SOC, чтобы обнаруживать даже атаки, прошедшие все фильтры. Время на подготовку есть — но его всё меньше.

Эксклюзивный стрим с хакерами мирового класса

15 апреля в 19:00 Hussein и Niksthehacker раскроют все карты.

Реклама. АО «Позитив Текнолоджиз», ИНН 7718668887