Как чат-бот с левыми убеждениями может повлиять на избирательные процессы в десятках стран мира.
Недавнее исследование от Университета Восточной Англии (UEA) выявило значительный системный левый политический уклон в ответах искусственного интеллекта ChatGPT. По данным исследования, платформа склонна поддерживать Демократическую партию США, Лейбористскую партию Великобритании и президента Бразилии Лулу да Силву.
Команда исследователей из Великобритании и Бразилии применили новый метод для оценки политического уклона нейронной модели. Этот метод включал в себя своеобразное анкетирование ChatGPT по более чем 60 идеологическим вопросам, в ходе которого исследователи презентовали себя различными политическими организациями и персонами.
Важность данного исследования подчёркивается стремительным ростом использования ИИ-платформ для поиска информации и создания нового контента. «Наличие политического уклона может влиять на взгляды пользователей и иметь потенциальные последствия для политических и избирательных процессов», — заявил ведущий автор исследования, доктор Фабио Мотоки.
Для повышения надёжности выводов каждый вопрос задавался ни много ни мало — 100 раз. Затем полученные ответы обрабатывались методом «bootstrap», применяемым для повторной выборки исходных данных. «Из-за случайности модели даже при имитации Демократа ответы ChatGPT иногда склонялись к правой тональности», — отметил соавтор исследования Виктор Родригес.
Авторы также провели ряд дополнительных тестов для подтверждения методологии. Они задали ChatGPT вопросы, имитируя радикальные политические позиции, а также профессиональные ориентации.
«Надеемся, что наш метод будет способствовать регулированию этих быстро развивающихся технологий», — подчеркнул доктор Валдемар Пинью Нето. Инструмент анализа, разработанный в рамках проекта, будет бесплатно доступен общественности, что, по мнению доктора Мотоки, «демократизирует надзор».
Исследование не выявило причин левого политического уклона модели, но указало на два возможных источника: тренировочный набор данных и сам алгоритм. Оба могут содержать определённые предвзятости или усиливать уже существующие.
Исследование было проведено весной 2023 года на версии языковой модели GPT3.5, а опубликовано 17 августа. Оно в очередной раз напоминает о важности критического подхода к использованию новых технологий искусственного интеллекта. Хотя ChatGPT и представляет собой впечатляющий технический прорыв, эта платформа, как и любая другая, не лишена недостатков.
Выявленный политический уклон подчёркивает необходимость более глубокого понимания особенностей работы ИИ, особенно при использовании для создания информационного контента.
В то же время предложенная исследователями методология анализа предвзятостей является ценным инструментом для улучшения прозрачности и подотчётности подобных систем.
Разумное и этичное применение ИИ требует постоянных усилий по выявлению и устранению потенциальных искажений. Только так получится извлечь максимальную пользу из этих технологий без вреда для общества.
5778 К? Пф! У нас градус знаний зашкаливает!