Искусственный интеллект, нейросети
178,873 1,043
 

  Luddit ( Слушатель )
23 июн 2023 17:43:50

юристы в деле

новая дискуссия Дискуссия  1.551

Два американских адвоката и юридическая фирма получили штраф в размере $5 тыс. за предоставление фальшивых судебных решений, созданных чат-ботом с искусственным интеллектом ChatGPT.
Один из адвокатов признался, что шесть дел, на которые он ссылался в ходе судебного заседания против колумбийской авиакомпании Avianca, были придуманы чат-ботом.
Напомню, что у них там прецедентная судебная система и предыдущие судебные решения значат куда больше чем у нас.
https://www.theguardian.com/technology/2023/jun/23/two-us-lawyers-fined-submitting-fake-court-citations-chatgpt
Отредактировано: Luddit - 23 июн 2023 17:46:54
  • +0.04 / 3
  • АУ
ОТВЕТЫ (4)
 
 
  Поверонов ( Слушатель )
23 июн 2023 18:09:08

Как уже выше отмечено ChatGPT-боты галлюцинируют, то есть склонны придумывать нужные исторические "факты".
Поэтому их использование в качестве поисковой системы не имеет никаких гарантий достоверности. А если перепроверять всё что генерит такой бот вручную, то зачем он нужен - годится только фантастику писать например хвалебные письма боссу
  • +0.08 / 4
  • АУ
 
 
  Luddit ( Слушатель )
23 июн 2023 18:20:52

Вот выше как раз пример - для введения в заблуждение. Подозреваю, что поначалу всё прошло гладко, пока вторая сторона не попыталась по номерам решений с оригиналами свериться - например их адвокат удивился, что такие интересные решения мимо его внимания прошли (а там чем больше решений в памяти держишь - тем больше шансов побить оппонента прецедентом).
  • +0.02 / 1
  • АУ
 
 
 
  Поверонов ( Слушатель )
23 июн 2023 19:36:04

это вопрос не памяти - адвокаты заранее письменно готовят свою аргументацию и отправляют ее судье. На заседании они лишь поясняют судье неясные тому вопросы. Так что в данном случае адвокат слепо доверился рекламе ChatGPT и влип, как еще влипнут легковерные многие прочие ( если не всё человечество с какой-нибудь "звездой смерти" управляемой галлюционирующим ИИ ) И нет никакой возможности верифицировать творческие галлюцинации ИИ
  • +0.03 / 1
  • АУ
 
 
 
  Егор А.Изотов ( Слушатель )
23 июн 2023 20:42:34

Уже были прецеденты: https://habr.com/ru/news/738054/
Американский юрист использовал в суде «фиктивные» цитаты, сгенерированные ChatGPT. Выяснилось, что чат-бот в своих ответах ссылался на несуществующие дела.
В рамках процесса против колумбийской авиакомпании Avianca адвокат представил краткий обзор предыдущих дел, который сгенерировал ChatGPT. Сторона ответчика доказала в суде, что таких кейсов не существовало. После этого окружной судья США Кевин Кастел подтвердил, что «шесть из представленных дел представляют собой фиктивные судебные решения с фиктивными цитатами и фиктивными внутренними ссылками». Он назначил слушание для рассмотрения санкций в отношении адвокатов истца. 
Юрист Стивен А. Шварц признался под присягой, что использовал чат-бота OpenAI для своего выступления. Чтобы проверить правдивость его ответов, адвокат лишь спросил чат-бота, не лжет ли тот. ChatGPT утверждал, что все приведённые в ответе дела были реальными. 

В одном несуществующем деле под названием Varghese против China Southern Airlines Co., Ltd., чат-бот, казалось, ссылался на другое реальное дело, Zicherman против Korean Air Lines Co., Ltd., но неправильно указал дату и другие подробности этого кейса. 

По словам Шварца, он «не знал», что чат-бот может лгать. Теперь он «сильно сожалеет о том, что использовал генеративный искусственный интеллект для дополнения юридического исследования».

Другой адвокат той же фирмы, Питер ЛоДука, стал официальным поверенным по делу, и ему придётся предстать перед судьей, чтобы объяснить, что именно произошло.
Ранее судья в Колумбии использовал ChatGPT для консультации перед вынесением приговора. Однако решение он принимал самостоятельно, а чат-бот выступал в роли «консультанта».

В другом случае ChatGPT ошибочно внёс профессора права Джонатана Тёрли в список юристов, которых обвиняли в сексуальных домогательствах. В качестве источника информации чат-бот привёл статью в WP от марта 2018 года. Однако такой статьи не существует.
  • +0.02 / 1
  • АУ