Новое исследование показало, как GPT-4 и Llama 2 сближаются с человеческим интеллектом.
Новое исследование показало, что большие языковые модели могут имитировать способность понимать психическое состояние других людей, известную как теория разума. Открытие сделано командой ученых из Медицинского центра Гамбург-Эппендорф в Германии.
Ученые провели тщательные тестирования нескольких языковых моделей, включая GPT-4 от OpenAI и Llama 2-70b от Meta*, а также 1 907 человек. Тесты включали пять типичных задач теории разума:
GPT-4 показал результаты, сравнимые с человеческими в тестах на ложные убеждения, и даже превзошел людей в задачах на иронию, намеки и сложные истории. Однако он уступил в тесте на социальные ошибки.
Модель Llama-2, напротив, показала хорошие результаты в тестах на ложные убеждения, но хуже справилась с задачами на иронию, намеки и сложные истории, при этом лучше справившись с социальными ошибками.
Исследователи подчеркивают, что результаты не доказывают наличие теории разума у языковых моделей. Они лишь показывают, что модели могут демонстрировать поведение, похожее на человеческое в таких задачах. Некоторые эксперты призывают с осторожностью воспринимать результаты исследования, а также предупреждают о возможных рисках и ошибочных выводах.
Напомним, что сооснователь Ethereum Виталик Бутерин заявил, что GPT-4 успешно прошел тест Тьюринга. По результатам исследования, люди ошибочно считали GPT-4 человеком в 56% случаев. Бутерин подчеркнул значимость достижения, указав, что преодоление этапа теста Тьюринга является важной вехой, подтверждающей серьёзность достижений в области ИИ.
Кроме того, недавно ученые заявили, что существует множество противоречивых теорий о том, как и где возникает сознание в мозге. Они рассматривают возможность объединения различных теорий, предполагая, что сознание можно объяснить через локальные и глобальные нейронные связи.
* Компания Meta и её продукты признаны экстремистскими, их деятельность запрещена на территории РФ.
Ладно, не доказали. Но мы работаем над этим