Обновлённая редполитика популярных академических журналов «похоронила» искусственный интеллект
Для просмотра ссылки Войди
Обновленные правила касаются бурного роста числа учёных, экспериментирующих с нашумевшим продуктом Для просмотра ссылки Войди
Однако журнал Science предупредил исследователей, что представление любых рукописей, созданных с использованием этих инструментов, — равносильно научному проступку.
«Текст, созданный с помощью ИИ, машинного обучения или аналогичных алгоритмических инструментов, не может быть использован в статьях, опубликованных в научных журналах. А сопровождающие рисунки, изображения или графика не могут быть продуктами таких инструментов без явного разрешения редакторов», — говорится в Для просмотра ссылки Войди
Журнал Nature ввёл аналогичные правила и не будет принимать никаких статей, в которых в качестве авторов указаны ChatGPT или любое другое программное обеспечение для ИИ, однако не запретил эти типы инструментов полностью.
«Исследователи, использующие инструменты LLM, должны документировать их использование в разделах «методы» или «благодарности». Если статья не включает эти разделы, то для документирования использования LLM можно использовать введение или другой соответствующий раздел работы», — Для просмотра ссылки Войди
Холден Торп, главный редактор Science, Для просмотра ссылки Войди
Большие языковые модели, такие как ChatGPT, обучаются на огромных объёмах текста, почерпнутого из Интернета, и могут выдавать предложения, очень похожие на те, что содержатся в его обучающих данных, поэтому Торп и назвал использование LLM плагиатом.
Хотя генеративные ИИ создают грамотный текст с точки зрения орфографии и пунктуации, они, как правило, могут искажать факты, ссылаясь на бессмысленные исследования, содержащие ложные цифры. Однако из уст нейросети вся эта информация звучит достаточно убедительно, чтобы обмануть человеческое восприятие. Академические тексты часто бывают скучны и полны особой терминологии, поэтому даже эксперты могут поверить, что поддельные тезисы, написанные нейросетью, — настоящие.
Несмотря на запрет изданий использовать нейросети в научных статьях, доподлинно проверить факт их использования сейчас попросту невозможно. Пока что не существует быстрого и достоверного способа выявлять такой текст. Конечно, при тщательной вычитке можно заметить огрехи в тексте, но утверждать, что текст написала нейросеть будет безосновательно.
Springer Nature, родительский издатель журнала Nature, в настоящее время разрабатывает собственное программное обеспечение для обнаружения текста, созданного ИИ. Между тем Science заявила, что рассмотрит возможность использования программного обеспечения для обнаружения, созданного другими компаниями.
Торп призвал исследователей думать самостоятельно и воздерживаться от использования подобных технологий: «В то время, когда доверие к науке ослабевает, для учёных важно подтвердить свою приверженность тщательному вниманию к деталям. Конечно, машины сейчас играют важную роль, но лишь как инструменты для людей, которые выдвигают гипотезы, разрабатывают эксперименты и осмысливают результаты. В конечном итоге, продукт должен исходить от того компьютера, что находится в наших головах, и полностью выражаться им».
- Источник новости
- www.securitylab.ru