Новости Слова против алгоритмов: почему распознать машинный текст не могут даже лингвисты?

NewsMaker

I'm just a script
Премиум
13,854
20
8 Ноя 2022
38,9% правильных ответов и туманное будущее науки.


adr1ybyyzdif1zf33ikrsd2vww9vs2vx.jpg


Новое исследование, Для просмотра ссылки Войди или Зарегистрируйся в научном журнале ScienceDirect, бросает вызов специалистам в области лингвистики. Оказывается, даже они не могут с уверенностью определить, написан текст человеком или искусственным интеллектом.

Эксперимент провели Мэтью Кесслер из Университета Южной Флориды и Дж. Эллиотт Казал из Университета Мемфиса. В качестве участников были привлечены 72 человека: редакторы крупных изданий и сотрудники научных организаций. Каждому предоставили несколько академических статей от разных авторов.

Результаты удивили ученых. Ни один из экспертов не смог правильно идентифицировать все четыре предложенных материала. Только 13% участников не угадали ни разу. Общий процент правильных выводов составил всего 38,9%.

Исследователям было особенно интересно узнать, на чем основывались решения испытуемых. «Они предложили вполне логичные аргументы, но, тем не менее, часто ошибались». — заметил Кесслер

Выяснилось, что в коротких текстах большие языковые модели вроде ChatGPT могут даже превосходить человеческие способности, особенно если речь идет о грамматике. Однако в длинных статьях чат-боты часто искажают факты и забывают о правилах языка. Такие материалы идентифицировать проще.

Мэтью Кесслер выразил надежду, что это исследование станет отправной точкой для более широкого обсуждения этических и нормативных аспектов использования нейросетей в научных и образовательных процессах.

В июне ученым из Канзаса Для просмотра ссылки Войди или Зарегистрируйся механизм, который автоматически определяет текстовые материалы, сгенерированные нейросетью, с точностью до 100%. Такой инструмент в будущем мог бы регулировать вопросы авторского права, плагиата и дезинформации.
 
Источник новости
www.securitylab.ru

Похожие темы