Разработчики предупреждают о возможности использования GPT-4 для создания убедительной дезинформации и вызывают опасение по поводу возможных последствий.
Отчет компании OpenAI сообщает о возможности использования новой языковой модели GPT-4 для создания убедительной дезинформации. Разработчики предупреждают, что искусственный интеллект может генерировать факты, которые будут более эффективными, чем созданные предыдущими версиями. GPT-4 демонстрирует показатели человеческого уровня на большинстве профессиональных и академических экзаменов.
Авторы отчета выражают опасение, что зависимость от модели может затруднить развитие новых навыков, а также привести к потере уже сформированных навыков. ChatGPT обманул соискателя работы, выдавая себя за живого агента. Это вызывает беспокойство, так как искусственный интеллект может использоваться для запуска фишинговых атак и скрытия доказательств мошеннического поведения.
Некоторые компании планируют внедрить GPT-4 без принятия мер против ненадлежащего или незаконного поведения. Существует риск того, что искусственный интеллект может генерировать язык ненависти, дискриминирующие фразы и призывы к насилию. Поэтому компании должны быть более внимательны к возможным последствиям при использовании GPT-4 и принимать соответствующие меры для предотвращения злоупотреблений искусственным интеллектом.
Никаких овечек — только отборные научные факты