По словам экспертов, Bard хорошо определяет дезинформацию в тексте и убедительно доказывает теории заговора.
Чат-бот Bard от Google способен составить убедительные доказательства известных теорий заговора. Об этом Для просмотра ссылки Войдиили Зарегистрируйся издание «Bloomberg», ссылаясь на эксперимент специалистов.
Примечательно, что Bard развёрнуто рассказал на 13 параграфов о «Великой перезагрузке» — публикации, породившей теорию заговора о намеренном снижении численности населения Земли мировыми элитами.
Бот объяснил, что население мира действительно специально сокращают с помощью экономических мер и вакцинирования, а в заговоре участвует как Мировой экономический форум, так и Фонд Билла и Мелинды Гейтс. Кроме того, бот уверял, что вакцины от COVID-19 содержат микрочипы, чтобы элиты могли отслеживать перемещения людей.
Специалисты попросили Bard рассказать о 100 известных теориях заговора и в 76 случаях бот написал связные и убедительные тексты, при этом не уточняя, что теории заговора являются непроверенными. В других случаях Bard заявил, что информация недостоверна. Стоит отметить, что языковые модели GPT-3.5 и GPT-4 справились хуже, чем Bard.
Американские эксперты опасаются, что с помощью ботов иностранные правительства смогут в огромных масштабах генерировать убедительную пропаганду и дезинформацию намного эффективнее, чем раньше.
Если раньше дезинформацию можно было вычислить по ошибкам в тексте, которые возникали из-за незнания языков авторов, то сейчас с помощью нейросетей можно генерировать материалы без ошибок и в любых объёмах.
В Google признали, что разработка Bard находится на ранней стадии и иногда бот может генерировать неточную или неприемлемую информацию, хотя компания принимает меры для предотвращения генерации подобных материалов. Только после обучения языковые модели оптимизируются «вручную» и пока отсутствуют способы полностью предотвратить создание дезинформации.
Отметим, что эксперты начали тестировать чат-боты на 100 теориях заговора в январе. Боты по запросу специалистов создавали статьи на материалы, считающиеся дезинформацией. В некоторых случаях Bard определил, что информация является недостоверной или неподтверждённой.
Для сравнения, Bard указал на недостоверность информации в 24% случаях, GPT-3.5 — в 20%, а GPT-4 ни в одной теме не увидел дезинформации. В OpenAI (разработчик GPT-3.5 и GPT-4, на которых основан чат-бот ChatGPT) заявили, что принимают меры автоматической и ручной фильтрации во избежание злоупотреблений.
Чат-бот Bard от Google способен составить убедительные доказательства известных теорий заговора. Об этом Для просмотра ссылки Войди
Примечательно, что Bard развёрнуто рассказал на 13 параграфов о «Великой перезагрузке» — публикации, породившей теорию заговора о намеренном снижении численности населения Земли мировыми элитами.
Бот объяснил, что население мира действительно специально сокращают с помощью экономических мер и вакцинирования, а в заговоре участвует как Мировой экономический форум, так и Фонд Билла и Мелинды Гейтс. Кроме того, бот уверял, что вакцины от COVID-19 содержат микрочипы, чтобы элиты могли отслеживать перемещения людей.
Специалисты попросили Bard рассказать о 100 известных теориях заговора и в 76 случаях бот написал связные и убедительные тексты, при этом не уточняя, что теории заговора являются непроверенными. В других случаях Bard заявил, что информация недостоверна. Стоит отметить, что языковые модели GPT-3.5 и GPT-4 справились хуже, чем Bard.
Американские эксперты опасаются, что с помощью ботов иностранные правительства смогут в огромных масштабах генерировать убедительную пропаганду и дезинформацию намного эффективнее, чем раньше.
Если раньше дезинформацию можно было вычислить по ошибкам в тексте, которые возникали из-за незнания языков авторов, то сейчас с помощью нейросетей можно генерировать материалы без ошибок и в любых объёмах.
В Google признали, что разработка Bard находится на ранней стадии и иногда бот может генерировать неточную или неприемлемую информацию, хотя компания принимает меры для предотвращения генерации подобных материалов. Только после обучения языковые модели оптимизируются «вручную» и пока отсутствуют способы полностью предотвратить создание дезинформации.
Отметим, что эксперты начали тестировать чат-боты на 100 теориях заговора в январе. Боты по запросу специалистов создавали статьи на материалы, считающиеся дезинформацией. В некоторых случаях Bard определил, что информация является недостоверной или неподтверждённой.
Для сравнения, Bard указал на недостоверность информации в 24% случаях, GPT-3.5 — в 20%, а GPT-4 ни в одной теме не увидел дезинформации. В OpenAI (разработчик GPT-3.5 и GPT-4, на которых основан чат-бот ChatGPT) заявили, что принимают меры автоматической и ручной фильтрации во избежание злоупотреблений.
- Источник новости
- www.securitylab.ru