ИИ-боты предоставляют ответы, которые выглядят достоверными, но никак не основаны на фактах.
Старший вице-президент Google и руководитель подразделения Google Search, Прабхакар Рагхаван, предупреждает пользователей о важности пересмотра информации, полученной от чат-ботов, основанных на искусственном интеллекте.
Разнообразие ИИ, о котором мы говорим, иногда приводит к созданию вымышленных ответов, которые мы называем галлюцинациями, сообщил господин Рагхаван. Он также заявил, что одной из важных задач является минимизация таких случаев.
При галлюцинациях, ИИ-боты предоставляют ответы, которые выглядят достоверными, но никак не основаны на фактах. Разработчики должны свести к минимуму подобные сбои в работе ИИ-ботов.
На этой неделе исследователи безопасности из ИБ-компании Check Point Research заявили , что хакеры разработали способ обойти ограничения ChatGPT и используют его для продажи услуг, которые позволяют киберпреступникам создавать вредоносные программы и фишинговые электронные письма.
Также стало известно что OpenAI собирает широкий спектр другой пользовательской информации : IP-адреса пользователей; тип браузера, его настройки; данные о взаимодействии пользователей с сайтом; тип контента, с которым они взаимодействуют; функции, которые они используют; действия, которые предпринимают. Вся эта информация совершенно свободно может быть собрана OpenAI в соответствии с политикой конфиденциальности компании.
От классики до авангарда — наука во всех жанрах