Кто стоит за попытками превратить ИИ в оружие слежки и дезинформации?
Компания OpenAI заблокировала ряд аккаунтов , использовавших ChatGPT для создания потенциально вредоносного инструмента слежки на базе искусственного интеллекта. По данным исследователей, этот инструмент, ориентированный на мониторинг социальных сетей, вероятно, был разработан в Китае и использовал для работы одну из моделей Meta Llama.
Анализ показал, что заблокированные аккаунты применяли возможности ChatGPT для генерации детализированных описаний и анализа документов, способствуя созданию системы, собирающей в реальном времени данные о протестах против Китая на Западе. Затем информация передавалась китайским властям. Кампания получила кодовое название Peer Review из-за систематического продвижения и тестирования технологий слежки.
В рамках расследования OpenAI выявила использование ChatGPT для отладки и модификации исходного кода системы, известной как «Qianyue Overseas Public Opinion AI Assistant». Этот инструмент анализировал публикации и комментарии на таких платформах, как X*, Facebook**, Instagram**, YouTube, Telegram и Reddit, отслеживая упоминания протестных движений и другие чувствительные темы.
Кроме того, злоумышленники использовали ChatGPT для сбора открытых данных об аналитических центрах США, политических деятелях Австралии, Камбоджи и Соединённых Штатов, а также для перевода и анализа документов, содержащих информацию о протестах уйгуров. Подлинность некоторых скриншотов, загруженных в систему, остаётся под вопросом.
Помимо этого, OpenAI обнаружила и пресекла работу нескольких других сетей, использовавших ChatGPT для противоправных действий:
— Мошенническая схема трудоустройства. Группа, связанная с Северной Кореей, использовала нейросеть для создания поддельных резюме, профилей и писем о приёме на работу в рамках схемы обмана IT-компаний.
— Пропаганда в Латинской Америке. Китайская сеть распространяла антиамериканские статьи на английском и испанском языках, размещая их на сайтах в Перу, Мексике и Эквадоре. Часть активности совпадает с ранее известной кампанией Spamouflage.
— Романтические мошенничества. Связанная с Камбоджей группа создавала комментарии на японском, китайском и английском языках для мошеннических схем с инвестициями и романтическими аферами.
— Проиранская пропаганда. Сеть из пяти аккаунтов публиковала материалы в поддержку Палестины, ХАМАС и Ирана, выступая против США и Израиля. Некоторые аккаунты одновременно обслуживали несколько кампаний.
— Киберпреступность в Северной Корее. Группы Kimsuky и BlueNoroff использовали ChatGPT для изучения атакующих инструментов, связанных с криптовалютами, и отладки кода для брутфорса RDP.
— Информационные манипуляции в Гане. Сеть публиковала статьи и комментарии, влияя на выборы в Гане через англоязычный сайт «Empowering Ghana».
— Мошенничество с заданиями. Камбоджийская сеть заманивала людей на мошеннические задания (например, накрутка лайков и написание отзывов за деньги), требуя предоплату для участия.
Инцидент наглядно показывает, что искусственный интеллект уже давно стал эффективным инструментом для проведения кибератак, распространения дезинформации и манипулирования общественным мнением. Недавний отчёт Google Threat Intelligence Group подтвердил, что как минимум 57 групп, связанных с Китаем, Ираном и Северной Кореей, уже используют ИИ для различных этапов атак, включая генерацию контента и анализ информации.
OpenAI подчёркивает, что совместная работа ИИ-компаний, соцсетей, хостинговых провайдеров и исследователей помогает обнаруживать угрозы и разрабатывать механизмы защиты от злоупотребления искусственным интеллектом. Такая координация позволяет своевременно выявлять злоумышленников и существенно ограничивать их влияние.
* Социальная сеть запрещена на территории Российской Федерации.
** Компания Meta и её продукты признаны экстремистскими, их деятельность запрещена на территории РФ.