Google: гиперреализм ИИ искажает нашу реальность

Google: гиперреализм ИИ искажает нашу реальность

Исследователи рассказали о скрытых опасностях генеративного ИИ.

image

Согласно исследованию Google, генеративный ИИ может исказить коллективное понимание социально-политической реальности или научного консенсуса, и во многих случаях это уже происходит.

В отличие от предупреждений Сэма Альтмана и Илона Маска, об «экзистенциальных рисках» искусственного интеллекта, исследование Google сосредоточено на реальном вреде, который уже наносится и может усугубиться в будущем.

Большинство вредоносных случаев использования генеративного ИИ не являются откровенно злонамеренными и не нарушают явных политик контента или условий обслуживания. Проблема заключается в систематическом использовании технологий для создания контента, который трудно отличить от подлинного.

Из 200 рассмотренных случаев злоупотреблений, большинство включали использование возможностей ИИ, а не прямые атаки на модели. Генеративный ИИ часто используется для создания поддельных личностей, распространения дезинформации или создания интимных изображений без согласия, что создает серьезные риски для общественного доверия и информационной безопасности.

Доступность и гиперреализм результатов генеративного ИИ способствуют новым формам злоупотреблений, которые стирают границы между подлинным и ложным представлениями. Массовое создание и использование контента, могут оказывать значительное влияние, даже если они не являются откровенно вредоносными.

Использование генеративного ИИ для политической агитации подрывает доверие общественности, делая материал трудноотличимым от подлинных образов. Массовое производство низкокачественного, спамоподобного контента увеличивает скептицизм людей по отношению к цифровой информации и перегружает пользователей задачами фактчекинга.

Исследователи признают, что опора на сообщения в СМИ может вносить предвзятость в оценку случаев злоупотреблений, так как медиа часто придают приоритет «громким» инцидентам. Тем не менее, масштабы реальных злоупотреблений, вероятно, значительно шире.

Одним из примеров является создание интимных изображений без согласия, которое до сих пор остается недостаточно освещенной проблемой из-за табуированности темы порнографии. Генеративный ИИ используется для создания тысяч поддельных изображений знаменитостей, как это было с Тейлор Свифт.

Доклад подчеркивает необходимость многогранного подхода к смягчению злоупотреблений генеративным ИИ, включающего сотрудничество между политиками, исследователями, лидерами отрасли и гражданским обществом. Важно отметить, что Google, активно развивающая генеративный ИИ, также несет ответственность за решение всех проблем.

Устали от того, что Интернет знает о вас все?

Присоединяйтесь к нам и станьте невидимыми!