Адвокат Стивен Шварц из юридической фирмы Levidow, Levidow & Oberman использовал ChatGPT при подготовке документов по делу клиента. Юрист «не знал» о способности чат-бота генерировать ложный контент, пишет Для просмотра ссылки Войди
Levidow, Levidow & Oberman подала в суд на латиноамериканскую авиакомпанию Avianca от имени Роберто Маты. Он утверждал, что получил травму колена после удара металлической сервировочной тележкой во время полета в аэропорт имени Джона Кеннеди.
Когда юристы Avianca попросили судью Кевина Кастела отклонить иск, адвокаты Маты представили 10-страничный отчет с объяснением, почему его необходимо рассмотреть.
В документе цитировались судебные решения по нескольким делам вроде «Варгезе против China Southern Airlines» и «Миллер против United Airlines». Однако судья и юристы Avianca не смогли найти упомянутые в отчете прецеденты в базах.
Выяснилось, что Шварц использовал ChatGPT с целью «дополнить» свое исследование по делу.
Шварц также предоставил скриншоты чата с ИИ, где он спросил бота о реальности перечисленных дел. ChatGPT ответил, что эти прецеденты можно найти в «уважаемых юридических базах данных», включая Westlaw и LexisNexis.«Я не знал о возможности того, что контент [созданный алгоритмом] может быть ложным», — написал он в письме под присягой.
По словам Шварца, он «очень сожалеет» об использовании ChatGPT. Адвокат пообещал больше «никогда не делать этого в будущем без полной проверки подлинности ИИ-контента».
Судья назвал «беспрецедентной» ситуацию, в которой «толкование правовой позиции состоит из фальшивых судебных решений, ссылок и цитат». Он назначил Шварцу слушание для рассмотрения «возможных мер наказания» на 8 июня 2023 года.
Напомним, в январе ИИ-стартап DoNotPay предложил юристам Для просмотра ссылки Войди
В том же месяце глава компании заявил, профессиональные ассоциации некоторых штатовДля просмотра ссылки Войди
В марте стартап обвинили в Для просмотра ссылки Войди
- Источник новости
- forklog.com