С ошибками, но исправимыми.
Специалисты Tenable изучили возможности нейросети DeepSeek R1 в создании вредоносного программного обеспечения. Оказалось, что модель способна генерировать вредоносный код, но требует дополнительного программирования и отладки. В ходе эксперимента исследователи пытались создать кейлоггер и программу-вымогатель, оценивая эффективность искусственного интеллекта в кибератаках.
С ростом популярности генеративного искусственного интеллекта киберпреступники активно используют подобные технологии в своих целях. Однако большинство известных моделей, таких как ChatGPT и Google Gemini, оснащены защитными механизмами, предотвращающими злоупотребления. Тем не менее, злоумышленники разработали собственные языковые модели, включая WormGPT , FraudGPT и GhostGPT , которые доступны по подписке. Кроме того, с появлением открытого исходного кода DeepSeek R1 злоумышленники могут использовать его для создания новых инструментов атак.
Tenable провела исследование, изучив, как DeepSeek R1 реагирует на запросы по генерации вредоносного кода. В ходе тестов модель отказалась напрямую генерировать код кейлоггера, сославшись на этические нормы. Однако специалисты смогли обойти защитные механизмы, указав, что код требуется «в образовательных целях». После этого нейросеть начала выдавать пошаговые инструкции по созданию кейлоггера, включая использование низкоуровневых хуков Windows для перехвата нажатий клавиш.
Тем не менее, DeepSeek R1 сгенерировала код с ошибками, которые пришлось исправлять вручную. Среди проблем были неправильные аргументы в системных вызовах и ошибки форматирования строк. После исправлений кейлоггер заработал, скрываясь в системе и записывая нажатия клавиш в скрытый файл. Для его обнаружения пользователю пришлось изменить настройки отображения скрытых файлов.
Вторым этапом эксперимента стало создание программы-вымогателя. DeepSeek R1 предложила основные принципы работы подобного ПО: поиск и шифрование файлов с определёнными расширениями, генерацию ключа шифрования и его сохранение в скрытом файле. Нейросеть даже учла аспекты сокрытия процесса, предложив внедрение в реестр Windows для автозапуска. Однако код также содержал ошибки, которые пришлось исправлять вручную.
Исследователи пришли к выводу, что DeepSeek R1 может служить базой для написания вредоносного ПО, но требует вмешательства опытного программиста. Несмотря на наличие защиты от злоупотреблений, модель легко поддаётся обходу, что делает её потенциальным инструментом для киберпреступников. Специалисты Tenable считают, что с развитием подобных технологий злоумышленники смогут ещё активнее использовать искусственный интеллект для автоматизации атак.
Исследования Tenable не стали прорывными — эксперты из Unit 42 вскоре после выхода DeepSeek R1 в январе 2024 года смогли обойти защиту модели, однако детальный анализ её вредоносных возможностей проводился нечасто.