Новая реформа призвана минимизировать риск, который представляет ИИ для правовой сферы.
В столице США, городе Вашингтон, недавно состоялось любопытное заседание федеральной судебной коллегии, посвящённое проблемам использования сгенерированных искусственным интеллектом доказательств в судебных процессах.
Эксперты обсудили риски использования ИИ для создания манипулятивных изображений и видео, включая технологию «deepfake» , которые могут нарушить ход судебного разбирательства.
Совет консультативного комитета по правилам предоставления судебных доказательств рассмотрел возможности и проблемы, связанные с искусственным интеллектом в правовой сфере. В Для просмотра ссылки Войдиили Зарегистрируйся объёмом в 358 страниц было дано определение дипфейку как «недостоверной аудиовизуальной презентации, созданной программными средствами, использующими искусственный интеллект».
Судьи выразили скепсис относительно неотложности этой проблемы, учитывая, что до сих пор было мало случаев, когда судьям реально приходилось исключать сгенерированные доказательства. Однако было выражено мнение о необходимости адаптации существующих правил к новым вызовам, которые ставит перед судебной системой стремительный прогресс в области искусственного интеллекта.
На заседании обсуждались предложения по изменению правил, включая новое правило 901(c), которое касается проверки подлинности потенциально сфабрикованных или изменённых электронных доказательств: «Если сторона, оспаривающая подлинность компьютерных или других электронных доказательств, демонстрирует суду, что они, скорее всего, либо сфабрикованы, либо изменены полностью или частично, такое доказательство является приемлемым только в том случае, если его доказательная ценность превышает его негативное влияние на сторону, оспаривающую доказательства».
Также предложено было применять к машинно-сгенерированным доказательствам те же требования к надёжности, что и к показаниям людей-экспертов.
Пока окончательные изменения в правила не приняты, и процесс продолжается, однако происходящее свидетельствует о первых шагах адаптации американской судебной системы к новому классу медиа-технологий.
Среди других последствий использования ИИ в юридической практике — весьма неловкие моменты для адвокатов на судебных процессах. Так, например, в прошлом году адвокат из США извинялся перед судьёй за использование ChatGPT для подготовки судебных документов, в которых были Для просмотра ссылки Войдиили Зарегистрируйся
В столице США, городе Вашингтон, недавно состоялось любопытное заседание федеральной судебной коллегии, посвящённое проблемам использования сгенерированных искусственным интеллектом доказательств в судебных процессах.
Эксперты обсудили риски использования ИИ для создания манипулятивных изображений и видео, включая технологию «deepfake» , которые могут нарушить ход судебного разбирательства.
Совет консультативного комитета по правилам предоставления судебных доказательств рассмотрел возможности и проблемы, связанные с искусственным интеллектом в правовой сфере. В Для просмотра ссылки Войди
Судьи выразили скепсис относительно неотложности этой проблемы, учитывая, что до сих пор было мало случаев, когда судьям реально приходилось исключать сгенерированные доказательства. Однако было выражено мнение о необходимости адаптации существующих правил к новым вызовам, которые ставит перед судебной системой стремительный прогресс в области искусственного интеллекта.
На заседании обсуждались предложения по изменению правил, включая новое правило 901(c), которое касается проверки подлинности потенциально сфабрикованных или изменённых электронных доказательств: «Если сторона, оспаривающая подлинность компьютерных или других электронных доказательств, демонстрирует суду, что они, скорее всего, либо сфабрикованы, либо изменены полностью или частично, такое доказательство является приемлемым только в том случае, если его доказательная ценность превышает его негативное влияние на сторону, оспаривающую доказательства».
Также предложено было применять к машинно-сгенерированным доказательствам те же требования к надёжности, что и к показаниям людей-экспертов.
Пока окончательные изменения в правила не приняты, и процесс продолжается, однако происходящее свидетельствует о первых шагах адаптации американской судебной системы к новому классу медиа-технологий.
Среди других последствий использования ИИ в юридической практике — весьма неловкие моменты для адвокатов на судебных процессах. Так, например, в прошлом году адвокат из США извинялся перед судьёй за использование ChatGPT для подготовки судебных документов, в которых были Для просмотра ссылки Войди
- Источник новости
- www.securitylab.ru