Редакторы рассказывают о своем опыте ожесточенной борьбы с фейками.
Группа энтузиастов-редакторов Wikipedia запустила новый проект под названием Для просмотра ссылки Войдиили Зарегистрируйся . Их цель - противостоять наплыву некачественного контента, созданного искусственным интеллектом. Инициатива нацелена на выявление и устранение плохо написанных или недостоверных текстов, которые могут ухудшить общее качество информации на платформе.
Участники проекта подчеркивают: они не стремятся полностью запретить использование ИИ, а лишь хотят предотвратить распространение фейков.
По словам редакторов, иногда распознать текст, написанный машиной, довольно просто. Бывает, что невнимательные авторы вовсе не перечитывают материал и забывают удалить стандартные фразы вроде "как языковая модель искусственного интеллекта, я..." или "согласно моему последнему обновлению знаний". Кроме того, волонтеры научились выявлять определенные речевые обороты и "излюбленные выражения", характерные для ИИ-генераторов.
Однако возникают и трудности, особенно когда речь идет о сложных темах. Например, волонтеры обнаружили подробную статью об истории несуществующей османской крепости. Текст содержал более 2000 слов, включая детали о строительстве, осадах и даже реставрации после Первой мировой войны. Написан он был настолько убедительно, что только специалист по архитектуре Османской империи XIII века смог бы заметить подвох.
В некоторых случаях редакторы были вынуждены снизить уровень доверия к определенным новостным сайтам из-за злоупотребления ИИ-технологиями. Такая участь постигла портал CNET, который ранее уличили в публикации фейковых статей, созданных алгоритмами. Илиас Леблё, один из основателей проекта, также рассказал о случае со статьей о малоизвестном виде жуков, где была приведена ссылка на реальную научную публикацию на французском языке: "Единственная проблема - оригинальная статья была о совершенно другом виде краба, а жуки в ней вообще не упоминались”.
Проект также занимается выявлением изображений, сгенерированных ИИ. Например, в статье об исламской семинарии Дар уль-Улюм Деобанд в Индии волонтеры нашли изображение, которое на первый взгляд выглядело как подлинная историческая картина. Однако при внимательном рассмотрении стали заметны характерные признаки некачественной генерации: искаженные руки и стопа с семью пальцами.
Бороться с наплывом некачественного контента сложно, потому что его очень дешево производить в больших количествах. Учитывая, что Wikipedia всегда держалась на работе добровольцев, задача становится все труднее с каждым днем.
Хотя, несмотря на трудности, платформа лучше справляется с фильтрацией, чем другие крупные интернет-сервисы. "Статьи в Wikipedia имеют более специфический формат, чем результаты Google, и модель, не знакомая с ним, скорее всего, создаст то, что будет довольно легко обнаружить", - пояснил Илиас Леблё.
Группа энтузиастов-редакторов Wikipedia запустила новый проект под названием Для просмотра ссылки Войди
Участники проекта подчеркивают: они не стремятся полностью запретить использование ИИ, а лишь хотят предотвратить распространение фейков.
По словам редакторов, иногда распознать текст, написанный машиной, довольно просто. Бывает, что невнимательные авторы вовсе не перечитывают материал и забывают удалить стандартные фразы вроде "как языковая модель искусственного интеллекта, я..." или "согласно моему последнему обновлению знаний". Кроме того, волонтеры научились выявлять определенные речевые обороты и "излюбленные выражения", характерные для ИИ-генераторов.
Однако возникают и трудности, особенно когда речь идет о сложных темах. Например, волонтеры обнаружили подробную статью об истории несуществующей османской крепости. Текст содержал более 2000 слов, включая детали о строительстве, осадах и даже реставрации после Первой мировой войны. Написан он был настолько убедительно, что только специалист по архитектуре Османской империи XIII века смог бы заметить подвох.
В некоторых случаях редакторы были вынуждены снизить уровень доверия к определенным новостным сайтам из-за злоупотребления ИИ-технологиями. Такая участь постигла портал CNET, который ранее уличили в публикации фейковых статей, созданных алгоритмами. Илиас Леблё, один из основателей проекта, также рассказал о случае со статьей о малоизвестном виде жуков, где была приведена ссылка на реальную научную публикацию на французском языке: "Единственная проблема - оригинальная статья была о совершенно другом виде краба, а жуки в ней вообще не упоминались”.
Проект также занимается выявлением изображений, сгенерированных ИИ. Например, в статье об исламской семинарии Дар уль-Улюм Деобанд в Индии волонтеры нашли изображение, которое на первый взгляд выглядело как подлинная историческая картина. Однако при внимательном рассмотрении стали заметны характерные признаки некачественной генерации: искаженные руки и стопа с семью пальцами.
Бороться с наплывом некачественного контента сложно, потому что его очень дешево производить в больших количествах. Учитывая, что Wikipedia всегда держалась на работе добровольцев, задача становится все труднее с каждым днем.
Хотя, несмотря на трудности, платформа лучше справляется с фильтрацией, чем другие крупные интернет-сервисы. "Статьи в Wikipedia имеют более специфический формат, чем результаты Google, и модель, не знакомая с ним, скорее всего, создаст то, что будет довольно легко обнаружить", - пояснил Илиас Леблё.
- Источник новости
- www.securitylab.ru