Сгенерированный текст может вызвать массовые скандалы и суды между учёными.
Руководители Международной конференции по машинному обучению (ICML) запретили учёным представлять статьи, созданные с помощью больших языковых моделей (LLM), таких как ChatGPT.
Документы, содержащие сгенерированный текст, запрещены, если созданный текст не является частью экспериментального анализа статьи. Однако, учёным разрешено использовать ИИ для корректировки своего текста, чтобы улучшить его стиль или грамматику. Академики ICML в целях защиты от плагиата запретили приём статей, созданных с помощью ИИ. Стоит отметить, что эти правила не закреплены юридически, поэтому они ещё могут измениться в будущем.
Решат ли ученые придерживаться правил или нет, - зависит от них. На данный момент не существует инструментов, которые эффективно обнаруживают сгенерированный текст, поэтому ICML будет полагаться только на людей, которые отмечают подозрительные документы в процессе проверки. Сгенерированный текст часто содержит фактические ошибки, и авторам придется сильно редактировать текст ИИ, чтобы не вызывать подозрений.
Языковые модели, такие как ChatGPT, обучаются на тексте из Интернета. Они учатся находить общие закономерности между словами, чтобы предсказывать, что писать дальше, учитывая текстовую инструкцию или подсказку. Вопрос в том, занимаются ли эти системы плагиатом авторов или нет? Сейчас нет доказательств того, что ChatGPT напрямую копирует текст чужой статьи, но его результаты основаны на письме людей. Если он просто копирует текст, является ли машинное письмо предметом авторского права?
Ранее Департамент образования Нью-Йорка запретил использовать чат-бот ChatGPT на устройствах, принадлежащих Департаменту образования .
Большой взрыв знаний каждый день в вашем телефоне