Обновлённая редполитика популярных академических журналов «похоронила» искусственный интеллект
Science и Springer Nature , два ведущих издателя академических журналов, 26 января ввели в свою редакционную политику новые правила, касающиеся использования генеративных инструментов ИИ для написания статей.
Обновленные правила касаются бурного роста числа учёных, экспериментирующих с нашумевшим продуктом OpenAI — ChatGPT. Большая языковая модель (LLM) может генерировать последовательные абзацы текста. Ей можно поручить написание статей на самые разные темы, включая науку. Учёные используют ChatGPT для написания собственных исследовательских работ, а некоторые заходят так далеко, что указывают ChatGPT автором всей работы.
Однако журнал Science предупредил исследователей, что представление любых рукописей, созданных с использованием этих инструментов, — равносильно научному проступку.
«Текст, созданный с помощью ИИ, машинного обучения или аналогичных алгоритмических инструментов, не может быть использован в статьях, опубликованных в научных журналах. А сопровождающие рисунки, изображения или графика не могут быть продуктами таких инструментов без явного разрешения редакторов», — говорится в редакционной политике Science . «Кроме того, программа не может быть автором статьи в научном журнале. Нарушение этой политики представляет собой научный проступок», — указано там же.
Журнал Nature ввёл аналогичные правила и не будет принимать никаких статей, в которых в качестве авторов указаны ChatGPT или любое подобное программное обеспечение, однако не запретил эти типы инструментов полностью.
«Исследователи, использующие инструменты LLM, должны документировать их использование в разделах «методы» или «благодарности». Если статья не включает эти разделы, то для документирования использования LLM можно использовать введение или другой соответствующий раздел работы», — сообщили представители Nature .
Холден Торп, главный редактор Science, заявил , что все представленные статьи должны быть оригинальной работой авторов. А контент, созданный ИИ, является одной из форм плагиата. Авторы могут использовать подобные инструменты, только если сообщили об этом заранее, и журнал одобрил такую статью.
Большие языковые модели, такие как ChatGPT, обучаются на огромных объёмах текста, почерпнутого из Интернета, и могут выдавать предложения, очень похожие на те, что содержатся в его обучающих данных, поэтому Торп и назвал использование LLM плагиатом.
Хотя генеративные ИИ создают грамотный текст с точки зрения орфографии и пунктуации, они, как правило, могут искажать факты, ссылаясь на бессмысленные исследования, содержащие ложные цифры. Однако из уст нейросети вся эта информация звучит достаточно убедительно, чтобы обмануть человеческое восприятие. Академические тексты часто бывают скучны и полны особой терминологии, поэтому даже эксперты могут поверить, что поддельные тезисы, написанные нейросетью, — настоящие.
Несмотря на запрет изданий использовать нейросети в научных статьях, доподлинно проверить факт их использования сейчас попросту невозможно. Пока что не существует быстрого и достоверного способа выявлять такой текст. Конечно, при тщательной вычитке можно заметить огрехи в тексте, но утверждать, что текст написала нейросеть будет безосновательно.
Springer Nature в настоящее время разрабатывает собственное программное обеспечение для обнаружения текста, созданного ИИ. Между тем Science заявила, что рассмотрит возможность использования программного обеспечения для обнаружения, созданного другими компаниями.
Торп призвал исследователей думать самостоятельно и воздерживаться от использования подобных технологий: «В то время, когда доверие к науке ослабевает, для учёных важно подтвердить свою приверженность тщательному вниманию к деталям. Конечно, машины сейчас играют важную роль, но лишь как инструменты для людей, которые сами выдвигают гипотезы, разрабатывают эксперименты и осмысливают результаты. В конечном итоге, продукт должен исходить от того компьютера, что находится в наших головах, и полностью выражаться им».