Цитата: Luddit от 23.06.2023 18:20:52Вот выше как раз пример - для введения в заблуждение. Подозреваю, что поначалу всё прошло гладко, пока вторая сторона не попыталась по номерам решений с оригиналами свериться - например их адвокат удивился, что такие интересные решения мимо его внимания прошли (а там чем больше решений в памяти держишь - тем больше шансов побить оппонента прецедентом).
Уже были прецеденты:
https://habr.com/ru/news/738054/Американский юрист
использовал в суде «фиктивные» цитаты, сгенерированные ChatGPT. Выяснилось, что чат-бот в своих ответах ссылался на несуществующие дела.
В рамках процесса против колумбийской авиакомпании Avianca адвокат представил краткий обзор предыдущих дел, который сгенерировал ChatGPT. Сторона ответчика доказала в суде, что таких кейсов не существовало. После этого окружной судья США Кевин Кастел подтвердил, что «шесть из представленных дел представляют собой фиктивные судебные решения с фиктивными цитатами и фиктивными внутренними ссылками». Он назначил слушание для рассмотрения санкций в отношении адвокатов истца.
Юрист Стивен А. Шварц
признался под присягой, что использовал чат-бота OpenAI для своего выступления. Чтобы проверить правдивость его ответов, адвокат лишь спросил чат-бота, не лжет ли тот. ChatGPT утверждал, что все приведённые в ответе дела были реальными.
В одном несуществующем деле под названием Varghese против China Southern Airlines Co., Ltd., чат-бот, казалось, ссылался на другое реальное дело, Zicherman против Korean Air Lines Co., Ltd., но неправильно указал дату и другие подробности этого кейса.
По словам Шварца, он «не знал», что чат-бот может лгать. Теперь он «сильно сожалеет о том, что использовал генеративный искусственный интеллект для дополнения юридического исследования».
Другой адвокат той же фирмы, Питер ЛоДука, стал официальным поверенным по делу, и ему придётся предстать перед судьей, чтобы объяснить, что именно произошло.
Ранее судья в Колумбии
использовал ChatGPT для консультации перед вынесением приговора. Однако решение он принимал самостоятельно, а чат-бот выступал в роли «консультанта».
В другом случае ChatGPT ошибочно
внёс профессора права Джонатана Тёрли в список юристов, которых обвиняли в сексуальных домогательствах. В качестве источника информации чат-бот привёл статью в WP от марта 2018 года. Однако такой статьи не существует.