ИИ-компании проваливают обещания защитить выборы

ИИ-компании проваливают обещания защитить выборы

Почему технологические решения не спасают от манипуляций общественным мнением.

image

В феврале на Мюнхенской конференции по безопасности ведущие компании в области искусственного интеллекта взяли на себя обязательства по защите выборов от вредных воздействий ИИ. Событие было воспринято как значительная победа в деле защиты демократических систем. Однако спустя полгода политики и эксперты утверждают, что, несмотря на выполнение некоторых из обязательств, компании не смогли полностью реализовать свои обещания и недостаточно прозрачно освещают предпринимаемые шаги.

Сенатор Марк Уорнер, председатель сенатского комитета по разведке, получил письма от OpenAI, Microsoft, Google, Amazon, TikTok, Meta* и X**, в которых компании описывают свой прогресс в создании систем для идентификации и маркировки синтетического контента, а также в ограничении использования их технологий в контексте выборов. Письма демонстрируют некоторые достижения, но Уорнер считает, что этого недостаточно.

Сенатор выразил разочарование по поводу того, что лишь немногие компании предоставили пользователям четкие механизмы отчетности и восстановления в случаях злоупотребления технологиями для имитации личности. В письмах компаний не хватает детализированных планов, ресурсов для обеспечения соблюдения правил и измеримых воздействий на распространение политической дезинформации, созданной ИИ. Также подчеркивается отсутствие количественных данных, подтверждающих эффективность принятых мер.

По мнению экспертов, компании только создают видимость действий без реального воздействия на избирателей и пользователей. Несмотря на усилия компаний по предотвращению использования их технологий для подрыва выборов, ИИ-контент, предназначенный для введения избирателей в заблуждение, наводнил интернет и соцсети.

Тем не менее, компании продолжают работать над совершенствованием алгоритмов обнаружения и маркировки контента, сотрудничая с организациями по проверке фактов, местными и государственными органами власти, а также с такими инициативами, как Coalition for Content Provenance and Authenticity (C2PA) и AI Safety Institute.

OpenAI, например, сообщила о внедрении стандарта C2PA для отслеживания происхождения синтетического медиаконтента. TikTok планирует внедрить «учетные данные контента», чтобы идентифицировать измененные видео и автоматически маркировать такой контент. Кроме того, TikTok запрещает платную политическую рекламу и не позволяет политикам или партиям монетизировать свои аккаунты. Компания также запрещает использование генеративного ИИ для введения людей в заблуждение относительно одобрений.

Аналогичным образом Meta увеличивает обнаружение и маркировку ИИ-контента. Компания также работает над Stable Signature, своей технологией водяных знаков. Рекламодателям, использующим такую ​​технологию, возможно, придется раскрывать ее использование в политической рекламе.

Однако водяные знаки и метаданные пока не в полной мере защищают от ИИ-подделок, что подчеркивает необходимость более широкого обмена информацией в отрасли для точного выявления ИИ-контента. Многие компании также отмечают проблемы с идентификацией ИИ-контента. Технологический прогресс не способен полностью решить более крупные проблемы, такие как сокращение команд по обеспечению доверия и безопасности, слабое выполнение политик против дезинформации и импульсивные действия ключевых лиц.

Пока компании разрабатывают или внедряют технологии обнаружения и водяные знаки, проблема заключается в том, что эти методы еще не достигли высокой эффективности. Даже лучшие технологии обнаружения подделок и все более строгие правила модерации контента могут оказаться бессмысленными, если руководство компании или владелец будут распространять подделки среди миллионов пользователей без должного контекста.

Полный список компаний, которые предоставили свои ответы: Adobe , Amazon , Anthropic , Arm , Google , IBM , Intuit , LG , McAfee , Microsoft , Meta , OpenAI , Snap , Stability AI , TikTok , Trend Micro , True Media , Truepic , и X .

* Компания Meta и её продукты признаны экстремистскими, их деятельность запрещена на территории РФ.
** Социальная сеть запрещена на территории Российской Федерации.

Ищем темную материю и подписчиков!

Одно найти легче, чем другое. Спойлер: это не темная материя

Станьте частью научной Вселенной — подпишитесь