Битва алгоритмов: ИИ научился делать вредоносный код невидимым

leer en español

Битва алгоритмов: ИИ научился делать вредоносный код невидимым

Нулевое детектирование на VirusTotal подчёркивает масштаб угрозы.

image

Исследователи Palo Alto Networks обнаружили, что крупные языковые модели (LLM) могут быть легко использованы для создания новых вариаций вредоносного JavaScript-кода, способного обходить средства обнаружения.

Как сообщают специалисты, хоть LLM и не способны разрабатывать вредоносное ПО с нуля, их можно применять для переписывания и маскировки уже существующего кода, что значительно усложняет его выявление.

Преступники используют LLM для выполнения трансформаций, делающих вредоносный код более естественным на вид, что затрудняет его классификацию как опасного. Такие изменения могут ухудшать работу систем анализа вредоносного ПО, заставляя их считать вредоносный код безвредным.

Несмотря на внедрение мер безопасности со стороны разработчиков LLM, злоумышленники продолжают использовать альтернативные инструменты, такие как WormGPT, для создания фишинговых писем и нового вредоносного ПО. Так, эксперты Unit 42 наглядно продемонстрировали, как LLM могут поэтапно переписывать образцы вредоносного кода, обходя машинные модели обнаружения, такие как Innocent Until Proven Guilty (IUPG) и PhishingJS. В результате было создано около 10 000 вариантов JavaScript, сохраняющих функциональность, но не распознаваемых как вредоносные.

Для модификации кода использовались такие методы, как переименование переменных, разбиение строк, добавление лишнего кода, удаление пробелов и полная реимплементация. Алгоритм с жадной стратегией изменил классификацию собственного модели с «вредоносного» на «безопасный» в 88% случаев.

Подобные модифицированные скрипты также успешно обходили анализаторы вредоносного ПО на платформе VirusTotal, что подтверждает их высокую степень маскировки. Важной особенностью является то, что изменения, произведённые с помощью LLM, выглядят более естественно по сравнению с обфускацией через библиотеки, такие как obfuscator.io, которые оставляют легко распознаваемые следы.

И хотя OpenAI в октябре 2024 года заблокировала более 20 операций, использующих её платформу для разведки, исследования уязвимостей и других противоправных целей, у злоумышленников всё ещё остаются способы использовать нейросетевые модели во вред.

Использование генеративного ИИ может привести к резкому увеличению количества вредоносного ПО, однако тот же подход можно применять для улучшения обучения моделей машинного обучения, чтобы повысить их устойчивость к угрозам.

Таким образом, расширение возможностей ИИ приносит как угрозы, так и решения: технологии, которые используются для маскировки вредоносного кода, могут стать инструментом укрепления киберзащиты, если применить их для создания более устойчивых систем обнаружения.

Наш канал защищен лучше, чем ваш компьютер!

Но доступ к знаниям открыт для всех

Получите root-права на безопасность — подпишитесь