Компания ликвидировала аккаунты шпионов, которые использовали GPT-4 в своих коварных целях.
OpenAI заблокировала пять аккаунтов, которые, по ее данным, использовали агенты Китая, Ирана и Северной Кореи в своих коварных шпионских целях. В заявлении OpenAI также говорится, что страны с помощью модели GPT-4 пытались генерировать материалы для политически мотивированных атак.
Кроме того, злоумышленники искали лазейки в системах обнаружения вредоносных программ. Для этого они задействовали различные возможности нейросетей. В том числе их способность извлекать информацию, переводить тексты, находить ошибки в коде и автоматизировать простые задачи программирования. Вероятно, таким образом хакеры надеялись обойти защиту и скрыть свою незаконную активность.
Как сообщает Microsoft, партнер OpenAI, агенты из Китая, Charcoal Typhoon и Salmon Typhoon, собирали данные о конкретных компаниях и спецслужбах. Иранская группировка Crimson Sandstorm разрабатывала целевые фишинговые атаки. Emerald Sleet, злоумышленники из Северной Кореи искали информацию по оборонной тематике и генерировали фишинговые письма. Еще одна группа, Forest Blizzard изучала технологии спутниковой разведки и автоматизацию вредоносных скриптов.
Большие языковые модели, такие как GPT-4 от OpenAI, действительно хорошо обрабатывают тексты - извлекают ключевую информацию, составляют связные сообщения, генерируют код. OpenAI не хочет, чтобы ее продуктами злоупотребляли, для чего и внедрила фильтрацию подозрительных запросов.
Компания также отметила, что GPT-4 имеет ограниченный потенциал для проведения кибератак по сравнению с другими, специально разработанными для этих целей нейросетями. Иными словами, модель сама по себе не представляет большой угрозы, даже если ей попробуют воспользоваться преступники.
OpenAI и раньше заявляла, что GPT-4 вряд ли будет полезна для хакеров, так как ее алгоритмы плохо справляются с созданием эксплойтов для известных уязвимостей.
Но доступ к знаниям открыт для всех