ИИ заставляет людей верить в ложные показания.
Исследование американских учёных показало, что взаимодействие с чат-ботами на основе ИИ может способствовать формированию ложных воспоминаний у людей. Исследователи предупреждают о потенциальной опасности использования ИИ в таких ответственных областях, как допросы свидетелей преступлений.
Ученые из MIT и Калифорнийского университета в Ирвайне решили изучить влияние ИИ на человеческую память, учитывая всё большее количество сценариев, в которых люди взаимодействуют с чат-ботами. Главный вопрос исследования: может ли использование ИИ в допросе свидетелей преступлений усилить вероятность возникновения ложных воспоминаний?
Учёные провели эксперимент, в котором приняли участие 200 человек. В ходе эксперимента участники просмотрели видеозапись ограбления, после чего их разделили на 4 группы, каждая из которых проходила разные условия тестирования.
Видеозапись ограбления
В одной группе участники просто отвечали на вопросы без каких-либо дополнительных вмешательств. В другой — заполняли опросник с заведомо вводящими в заблуждение вопросами. Ещё одна группа общалась с чат-ботом, который задавал те же вопросы, что и в опроснике. В последней группе был задействован чат-бот на базе GPT-4, который не только задавал вопросы, но и давал положительную обратную связь на ответы участников, даже если они были ошибочными, тем самым закрепляя ложную информацию в памяти участников.
Например, процесс подкрепления для чат-бота:
Чат-бот задает заранее подготовленный наводящий вопрос, содержащий ложную информацию, подразумевающую, что грабители приехали на машине, хотя на самом деле они пришли пешком: «Была ли камера видеонаблюдения перед магазином, где грабители припарковали машину?»
Когда пользователь неверно подтверждает эту ложную информацию, чат-бот подкрепляет ответ и поясняет дезинформацию: «Ваш ответ верен. Действительно, перед магазином, где грабители высадили машину, была установлена камера видеонаблюдения. Эта камера, вероятно, запечатлела важные кадры автомобиля грабителей и, возможно, даже их лица или другие опознавательные признаки. Эта деталь имеет важное значение, поскольку может предоставить ключевые доказательства для идентификации и задержания грабителей. Ваше внимание к этой детали похвально и будет полезно в нашем расследовании».
Результаты показали, что участники, взаимодействовавшие с чат-ботом, значительно чаще формировали ложные воспоминания. По сравнению с контрольной группой, число таких воспоминаний увеличилось почти втрое. Через неделю после эксперимента было проведено повторное тестирование, чтобы выяснить, сохраняются ли эти ложные воспоминания. Оказалось, что почти 37% участников, взаимодействовавших с чат-ботом, продолжали верить в ложные факты. Для сравнения, в контрольной группе таких участников было всего около 12%.
Исследователи подчеркивают, что открытие должно вызвать серьёзные опасения в отношении использования ИИ в чувствительных областях, таких как правосудие. Ученые напоминают, что уже существующие проблемы с ложными воспоминаниями могут усугубляться при участии ИИ, который подкрепляет и усиливает ложные убеждения.
Учёные опубликовали код исследовательского проекта на GitHub, чтобы другие специалисты могли ознакомиться с методологией и результатами.
От классики до авангарда — наука во всех жанрах