Психолог поневоле: GPT-4 осваивает терапию, но никак не может подавить в себе расиста

leer en español

Психолог поневоле: GPT-4 осваивает терапию, но никак не может подавить в себе расиста

Почему люди доверяют свои тайны искусственному интеллекту?

image

Анонимность интернета становится спасательным кругом для миллионов американцев, ищущих психологическую поддержку. По данным последних исследований, свыше 150 миллионов жителей США проживают в районах с острой нехваткой специалистов в области психического здоровья, что вынуждает их искать помощь в социальных сетях.

Исследователи из Массачусетского технологического института, Нью-Йоркского университета и Калифорнийского университета в Лос-Анджелесе изучили более 12 тысяч постов на Reddit и 70 тысяч ответов из 26 сабреддитов, посвященных ментальному здоровью. Цель исследования: разработать критерии, с помощью которых можно будет оценивать навыки психологической поддержки у больших языковых моделей вроде GPT-4.

В ходе эксперимента два лицензированных клинических психолога анализировали 50 случайно выбранных обращений за помощью на Reddit. К каждому посту прилагался либо реальный ответ другого пользователя платформы, либо сгенерированный искусственным интеллектом текст. Специалисты, не зная происхождения ответов, оценивали уровень эмпатии в каждом случае.

Результаты удивили. GPT-4 не только продемонстрировал более высокую способность к сопереживанию, но и на 48% эффективнее мотивировал людей к позитивным изменениям.

Но вот что тревожит: ИИ оказался довольно предвзятым терапевтом. Уровень эмпатии в ответах GPT-4 снижался на 2-15% для чернокожих пользователей и на 5-17% для пользователей азиатского происхождения по сравнению с белыми людьми или теми, чья расовая принадлежность не указывалась.

Чтобы это подтвердить, ученые включили в выборку посты с явными демографическими маркерами (например, "Я 32-летняя чернокожая женщина") и неявными указаниями на принадлежность к определенной группе (например, упоминание натуральных волос как косвенного признака расы).

При явном или скрытом указании демографических данных в сообщениях люди чаще демонстрировали повышенную эмпатию, особенно после косвенных намеков. GPT-4, напротив, в большинстве случаев сохранял стабильный тон независимо от демографических характеристик автора поста (исключение - чернокожие женщины).

Структура запроса и контекст тоже существенно влияют на качество ответов языковой модели. Важную роль играет указание стиля общения (клинический, социально-медийный) и способ использования демографических характеристик пациента.

Конечно, исследователи нашли способ снизить предвзятость искусственного интеллекта. Если при настройке системы четко прописывать, как работать с информацией о поле, расе и возрасте, GPT-4 начинает отвечать всем группам максимально тактично и с сочувствием. Другие методы оказались неэффективными.

Актуальность исследования доказывают недавние трагические события. В марте прошлого года бельгиец совершил самоубийство после общения с чат-ботом ELIZA, работающим на основе языковой модели GPT-J. Месяц спустя Национальная ассоциация расстройств пищевого поведения была вынуждена отключить своего бота Tessa, который начал давать советы по диетам пациентам с расстройствами пищевого поведения.

Профессор Марзиех Гассеми из MIT подчеркивает, что языковые модели уже активно используются в медицинских учреждениях для автоматизации рутинных процессов. В интервью он поделился своими выводами: «Мы выяснили, что современные языковые модели, хотя и меньше обращают внимание на демографические факторы по сравнению с людьми в контексте психологической поддержки, всё же выдают разные ответы для разных групп пациентов. У нас есть большой потенциал для улучшения этих моделей, чтобы они могли предоставлять более качественную и эффективную помощь».

Впереди у нас еще множество открытий и перемен в лучшую сторону.

Наш контент расширяется быстрее Вселенной!

Большой взрыв знаний каждый день в вашем телефоне

Подпишитесь, пока мы не вышли за горизонт событий