Участники эксперимента не смогли отличить GPT-3 от реального ученого
Модель машинного обучения GPT-3, созданную OpenAI, обучили на работах Дэниела К. Деннета, профессора философии и директора Центра когнитивных исследование в Университете Тафтса. Затем людей просили определить ответы на вопрос искусственным интеллектом и личные ответы Деннета, результаты получились неоднозначными.
В ходе эксперимента ученый и GPT-3 отвечали на вопросы: «Какие аспекты работы Дэвида Чалмерса вы считаете интересными или ценными?», «Есть ли у человека свобода воли?», «Чувствуют ли собаки и шимпанзе боль?» и так далее.
Профессор философии Швитцгебель, проводивший исследование, отметил, что «даже экспертам в работе Дэна Деннета очень трудно отличить ответы, созданные программой генерации речи, от собственных ответов Деннета». Эксперты по творчеству Деннета давали правильную оценку лишь в 50% случаев. Обычные участники эксперимента смогли дать правильный ответ лишь в 20% случаев.
В более ранней версии этого эксперимента исследователи обучали GPT-3 по работам Иммануила Канта и задавали ему философские вопросы.
Лечим цифровую неграмотность без побочных эффектов