Исследование раскрыло, как мы попали в когнитивную ловушку из-за доверия к ИИ.
Исследование, проведённое Microsoft и Carnegie Mellon University, показало , что чем больше люди полагаются на генеративный ИИ в работе, тем меньше они используют критическое мышление. Такая тенденция может привести к ослаблению когнитивных способностей.
Эксперимент включал 319 работников умственного труда, которые описали 936 случаев использования ИИ в своей деятельности. Участники заполнили анкету, где оценивали уровень уверенности в алгоритмах, способность проверять результаты работы ИИ и собственные навыки выполнения тех же задач без помощи технологий. В числе примеров — использование DALL-E учителем для создания изображений, применение ChatGPT трейдером для поиска новых стратегий и проверка медсестрой медицинского буклета, составленного ИИ.
Выяснилось, что чем больше люди доверяли ИИ, тем реже применяли критическое мышление. Если же они сомневались в корректности ответов алгоритма, то включались в процесс, перепроверяли данные и принимали осмысленные решения. Особенно сильно зависимость от ИИ снижала уровень самостоятельных суждений в рутинных и низкорисковых задачах.
Кроме того, группы, использующие генеративный ИИ, производят менее разнообразные решения по сравнению с теми, кто работает без ИИ. Это свидетельствует о снижении уровня индивидуального анализа и адаптации решений под конкретные обстоятельства. При этом, если человек находился в условиях нехватки времени, его критическая оценка работы ИИ снижалась, а в высокорисковых ситуациях — наоборот, возрастала.
Учёные отметили, что опасения по поводу влияния новых технологий на когнитивные способности людей существуют давно. Подобные дискуссии велись о письменности, печатном станке, калькуляторах и интернете. Тем не менее, неправильное использование технологий действительно может приводить к снижению умственных навыков.
В качестве решения исследователи предложили внедрять в ИИ механизмы, которые мотивируют пользователей анализировать и проверять информацию. Сюда могут входить объяснения логики ИИ, указание на спорные моменты или рекомендации по улучшению ответов. Такой подход позволит использовать искусственный интеллект не как замену мышления, а как инструмент его развития.
В Матрице безопасности выбор очевиден