Злоумышленники всё чаще прибегают к помощи ИИ в атаках с социальной инженерией

Злоумышленники всё чаще прибегают к помощи ИИ в атаках с социальной инженерией

От клиентов нет отбоя: ChatGPT озолотил компании в отрасли информационной безопасности.

image

Британская компания Darktrace предупредила, что с момента выпуска ChatGPT киберпреступники всё чаще используют искусственный интеллект для создания изощренных мошеннических схем, которыми удаётся эффективно обманывать сотрудников различных предприятий по всему миру. В частности, злополучная социальная инженерия даётся чат-боту даже лучше, чем реальному человеку. Поэтому нейросеть серьёзно облегчает «хактивистам» процесс атаки на предприятия.

Ещё с момента запуска ChatGPT в ноябре прошлого года, Darktrace стала свидетелем увеличения количества убедительных и сложных афер со стороны хакеров. Но число подобных атак только продолжает расти со временем. Наибольший рост коснулся атак с использованием фишинговых электронных писем.

Специалисты Darktrace также сообщили, что новой волны киберпреступников не возникло. По большей части именно текущие хакерские группировки меняют тактику и берут в оборот такой удобный инструмент, как ChatGPT. Специалисты считают, что нейросеть помогает злоумышленникам разрабатывать более целенаправленные, персонализированные и, в конечном итоге, более успешные схемы атак.

Возросшее число мошеннических инцидентов вынуждает организации чаще прибегать к услугам специалистов по кибербезопасности. Та же Darktrace, сообщившая статистику по ChatGPT, увеличила свою рыночную капитализацию в 3,5 раза, так как клиентская база компании увеличилась на четверть после релиза популярной нейросети.

Вот уж кому банкротство точно не грозит, это подобным компаниям. Пока злоумышленники стремительно осваивают большие языковые модели, специалисты в отрасли кибербезопасности «набивают карманы». Самое время задуматься о карьере в данной отрасли, не правда ли?

Мы клонировали интересный контент!

Никаких овечек — только отборные научные факты

Размножьте знания — подпишитесь