OpenAI предлагает ограничить использование нейросетей, чтобы предотвратить распространение пропаганды

OpenAI предлагает ограничить использование нейросетей, чтобы предотвратить распространение пропаганды

Свободный доступ к ИИ может привести к автоматизации массовых кампаний по дезинформации и пропаганде.

image

Группа исследователей из OpenAI, Стэнфордского и Джорджтаунского университетов предупреждает, что большие языковые модели, подобные той, что используется в ChatGPT, могут использоваться в рамках кампаний по дезинформации, чтобы облегчить распространение пропаганды.

Согласно недавнему исследованию , по мере того, как генеративные языковые модели становятся более доступными, их легче масштабировать и писать более достоверным и убедительным текстом, чтобы сделать их эффективным инструментом для операций влияния в будущем.

Исследователи пишут, что автоматизация пропаганды представляет собой новое конкурентное преимущество, которое позволит дорогим тактикам стать более дешевыми и менее заметными, поскольку каждое поколение текста уникально. Один из примеров такого использования языковых моделей – массовая рассылка сообщений в соцсетях и написание длинных новостных статей в Интернете.

Главная мысль экспертов заключается в том, что языковые модели будут полезны для пропагандистов и, вероятно, изменят операции влияния в Интернете. Даже если самые передовые модели хранятся в секрете или контролируются через доступ к API-интерфейсу, пропагандисты, скорее всего, перейдут на альтернативы с открытым исходным кодом, а государства могут сами инвестировать в технологию.

Учёные привели в пример исследователя, который натренировал языковую модель на наборе из 3,3 млн. тредов 4chan и использовал ее для генерации 30 000 постов на 4chan, большая часть которых была наполнена оскорбительными высказываниями и выражением ненависти. Способность одного человека создать такую ​​масштабную онлайн-кампанию с использованием генеративного ИИ раскрывает потенциал для людей, которые могут легко проводить операции влияния без надежных ресурсов.

В документе также говорится, что модели можно обучать с использованием целевых данных, в том числе модифицировать модели, чтобы они были более полезными для задач убеждения и поддерживали конкретную миссию. Также специалисты отметили, что пропагандисты могут даже использовать своих собственных чат-ботов.

Для смягчения угрозы такого использования нейросетей исследователи предлагают на этапе разработки создавать «более чувствительные к фактам модели с более поддающимися обнаружению результатами». Они также предлагают правительствам ввести ограничения на сбор обучающих данных и создать контроль доступа к оборудованию ИИ, такому как полупроводники. Эксперты также предлагают регулярно исправлять уязвимости безопасности и ограничить доступ к будущим моделям.

В отношении контента исследователи предлагают, чтобы платформы координировали свои действия с поставщиками ИИ для выявления контента, сгенерированного нейросетями, и требовали, чтобы весь материал был написан человеком. Кроме того, специалисты призывают учреждения участвовать в кампаниях по повышению медиаграмотности и предоставлять инструменты ИИ, ориентированные на потребителя.

Хотя на данный момент не было зарегистрировано ни одного случая использования большой языковой модели для распространения дезинформации, наличие в открытом доступе таких моделей, как ChatGPT, привело к тому, что ряд людей использовали его, например, для сдачи экзаменов и прохождения собеседования в Google.

Ранее мы писали о том, что Британская фирма Eleven Labs, занимающаяся искусственным интеллектом, ужесточила условия использования своей нейросети Prime Voice AI после того, как она использовалась для произношения расистских и гомофобных высказываний голосами знаменитостей.

Квантовый кот Шрёдингера ищет хозяина!

Живой, мертвый или в суперпозиции? Узнайте в нашем канале

Откройте коробку любопытства — подпишитесь