Технология предлагает новую форму взаимодействия между полярными взглядами.
Согласно последнему опросу Gallup, 80% американцев считают, что страна расколота по ключевым вопросам, таким как здравоохранение или миграция. Аналогичная ситуация наблюдается и в Европе, где общественные настроения также сильно поляризованы. На фоне этого тренда лаборатория DeepMind Для просмотра ссылки Войдиили Зарегистрируйся новый подход к разрешению общественных конфликтов, разработав искусственный интеллект под названием «Машина Габермаса», названный в честь философа Юргена Габермаса.
<h4>Как работает «Машина Габермаса»?</h4> Концепция проекта базируется на Для просмотра ссылки Войдиили Зарегистрируйся , который считал, что любые конфликты могут быть разрешены в условиях идеальной коммуникации и равенства. Система, разработанная DeepMind, играет роль медиатора, проводя приватные сессии с каждым участником дискуссии, чтобы собрать их мнения и объединить их в групповое заявление. В отличие от традиционных методов, машина обрабатывает мнения множества людей, выделяя общие идеи и формулируя согласованное решение.
На техническом уровне машина Габермаса использует два больших языковых модуля: генеративный модуль для создания нескольких вариантов групповых заявлений и модель предсказания принятия, которая анализирует, как вероятно участники согласятся с тем или иным вариантом. Этот процесс повторяется, пока не будет достигнуто заявление, которое устраивает всех.
<h4>Первые результаты: успешное тестирование с участием пяти тысяч человек</h4> В рамках испытаний около пяти тысяч человек обсуждали вопросы, касающиеся политики в Великобритании, такие как снижение возраста голосования и приватизация системы здравоохранения. В группе с ИИ-медиатором согласие было достигнуто в 56% случаев, тогда как с человеческими медиаторами – только в 44%. Результаты показали, что пользователи оценивали предложения, составленные машиной, как более четкие и обоснованные.
<h4>Тестирование с представительным обществом: участие 200 человек</h4> Для более объективных результатов DeepMind привлекла 200 человек, отобранных по возрасту, этническому и социальному признакам. Эти участники обсуждали девять тем, включая реформы в системе наказаний и облегчение условий для соискателей убежища. В нескольких случаях уровень поддержки по этим вопросам существенно возрос. Например, предложение о снижении численности заключённых получило согласие 75% участников по сравнению с 60% до обсуждения, а идея поощрения национальной гордости получила поддержку у 57% участников вместо начальных 42%.
<h4>Проблемы и ограничения</h4> Однако система всё ещё сталкивается с вызовами, особенно в обсуждении более острых вопросов, таких как права трансгендерных людей. Такие темы, по словам разработчиков, были исключены, чтобы не подвергать участников стрессу. Но именно на таких поляризующих темах тестирование искусственного интеллекта могло бы лучше показать свою эффективность в снижении раскола.
Вместе с тем система вызывает и этические вопросы. Учитывая, что некоторые модели ИИ показывают склонность к либеральным взглядам, возникает риск, что такие технологии будут восприниматься как «ангажированные». Известно, что некоторые общественные деятели, как, например, Илон Маск, видят в таких системах угрозу, считая их «склонными к прогрессивным взглядам».
<h3>Возможные сценарии использования</h3> Машина Габермаса потенциально может быть полезна для достижения согласия по спорным политическим вопросам, но остаётся риск её использования для создания речей и сообщений, направленных на усиление поддержки политиков. DeepMind предполагает, что машина может служить как для создания консенсуса в личных и общественных дискуссиях, так и для достижения целей в «системе» – сфере политического влияния и власти.
Команда DeepMind связывалась с самим Юргеном Габермасом, чтобы узнать его мнение о системе, но ответа не получила.
Согласно последнему опросу Gallup, 80% американцев считают, что страна расколота по ключевым вопросам, таким как здравоохранение или миграция. Аналогичная ситуация наблюдается и в Европе, где общественные настроения также сильно поляризованы. На фоне этого тренда лаборатория DeepMind Для просмотра ссылки Войди
<h4>Как работает «Машина Габермаса»?</h4> Концепция проекта базируется на Для просмотра ссылки Войди
На техническом уровне машина Габермаса использует два больших языковых модуля: генеративный модуль для создания нескольких вариантов групповых заявлений и модель предсказания принятия, которая анализирует, как вероятно участники согласятся с тем или иным вариантом. Этот процесс повторяется, пока не будет достигнуто заявление, которое устраивает всех.
<h4>Первые результаты: успешное тестирование с участием пяти тысяч человек</h4> В рамках испытаний около пяти тысяч человек обсуждали вопросы, касающиеся политики в Великобритании, такие как снижение возраста голосования и приватизация системы здравоохранения. В группе с ИИ-медиатором согласие было достигнуто в 56% случаев, тогда как с человеческими медиаторами – только в 44%. Результаты показали, что пользователи оценивали предложения, составленные машиной, как более четкие и обоснованные.
<h4>Тестирование с представительным обществом: участие 200 человек</h4> Для более объективных результатов DeepMind привлекла 200 человек, отобранных по возрасту, этническому и социальному признакам. Эти участники обсуждали девять тем, включая реформы в системе наказаний и облегчение условий для соискателей убежища. В нескольких случаях уровень поддержки по этим вопросам существенно возрос. Например, предложение о снижении численности заключённых получило согласие 75% участников по сравнению с 60% до обсуждения, а идея поощрения национальной гордости получила поддержку у 57% участников вместо начальных 42%.
<h4>Проблемы и ограничения</h4> Однако система всё ещё сталкивается с вызовами, особенно в обсуждении более острых вопросов, таких как права трансгендерных людей. Такие темы, по словам разработчиков, были исключены, чтобы не подвергать участников стрессу. Но именно на таких поляризующих темах тестирование искусственного интеллекта могло бы лучше показать свою эффективность в снижении раскола.
Вместе с тем система вызывает и этические вопросы. Учитывая, что некоторые модели ИИ показывают склонность к либеральным взглядам, возникает риск, что такие технологии будут восприниматься как «ангажированные». Известно, что некоторые общественные деятели, как, например, Илон Маск, видят в таких системах угрозу, считая их «склонными к прогрессивным взглядам».
<h3>Возможные сценарии использования</h3> Машина Габермаса потенциально может быть полезна для достижения согласия по спорным политическим вопросам, но остаётся риск её использования для создания речей и сообщений, направленных на усиление поддержки политиков. DeepMind предполагает, что машина может служить как для создания консенсуса в личных и общественных дискуссиях, так и для достижения целей в «системе» – сфере политического влияния и власти.
Команда DeepMind связывалась с самим Юргеном Габермасом, чтобы узнать его мнение о системе, но ответа не получила.
- Источник новости
- www.securitylab.ru