Юристу грозит штраф за использование ChatGPT для написания мемуаров, изобилующих ложными цитатами

Поскольку шумиха вокруг ИИ в последние месяцы достигла апогея, многие люди опасаются, что такие программы, как ChatGPT, однажды лишат их работы. Для нью-йоркского юриста этот кошмар может сбыться раньше, чем ожидалось, но не по тем причинам, о которых вы могли подумать. Как сообщает The New York Times, адвокат Стивен Шварц из юридической фирмы Levidow, Levidow and Oberman недавно обратился к чат-боту OpenAI за помощью в написании судебного дела, что привело к предсказуемо плачевным результатам.

Фирма Шварца подает в суд на колумбийскую авиакомпанию Avianca от имени Роберто Маты, который утверждает, что получил травму во время полета в международный аэропорт имени Джона Ф. Кеннеди в Нью-Йорке. Когда авиакомпания недавно обратилась к федеральному судье с просьбой закрыть дело, адвокаты Маты подали 10-страничный отчет, объясняющий, почему судебный процесс должен продолжаться. В документе цитируется более полудюжины судебных решений, в том числе «Варгезе против China Southern Airlines», «Мартинес против Delta Airlines» и «Миллер против United Airlines». К сожалению для всех участников, никто из тех, кто читал записку, не смог найти ни одного судебного решения, на которое ссылались адвокаты Маты. За что? Потому что ChatGPT сделал их всех. Упс.

В письме под присягой, поданном в четверг, Шварц сказал, что использовал чат-бот, чтобы "завершить" свое расследование дела. Шварц написал, что он «не знал о возможности того, что контент [ChatGPT] может быть фальшивым». Он даже поделился скриншотами, на которых видно, что он спрашивал у ChatGPT, реальны ли приведенные случаи. Программа ответила утвердительно, заявив, что решения можно найти в «уважаемых юридических базах данных», включая Westlaw и LexisNexis.

Шварц сказал, что он «глубоко сожалеет» об использовании ChatGPT «и никогда не будет делать этого в будущем без полной проверки его подлинности». Вопрос о том, получит ли он еще один шанс написать юридическую записку, висит в воздухе. Судья, назначенный для рассмотрения дела, назначил слушание на 8 июня для обсуждения возможных наказаний за «беспрецедентные обстоятельства», созданные действиями Шварца.

Все продукты, рекомендованные Engadget, выбираются нашей редакционной группой независимо от нашей материнской компании. Некоторые из наших историй содержат партнерские ссылки. Если вы покупаете что-то по одной из этих ссылок, мы можем получить партнерскую комиссию. Все цены верны на момент публикации.

Юристу грозит штраф за использование ChatGPT для написания мемуаров, изобилующих ложными цитатами

Поскольку шумиха вокруг ИИ в последние месяцы достигла апогея, многие люди опасаются, что такие программы, как ChatGPT, однажды лишат их работы. Для нью-йоркского юриста этот кошмар может сбыться раньше, чем ожидалось, но не по тем причинам, о которых вы могли подумать. Как сообщает The New York Times, адвокат Стивен Шварц из юридической фирмы Levidow, Levidow and Oberman недавно обратился к чат-боту OpenAI за помощью в написании судебного дела, что привело к предсказуемо плачевным результатам.

Фирма Шварца подает в суд на колумбийскую авиакомпанию Avianca от имени Роберто Маты, который утверждает, что получил травму во время полета в международный аэропорт имени Джона Ф. Кеннеди в Нью-Йорке. Когда авиакомпания недавно обратилась к федеральному судье с просьбой закрыть дело, адвокаты Маты подали 10-страничный отчет, объясняющий, почему судебный процесс должен продолжаться. В документе цитируется более полудюжины судебных решений, в том числе «Варгезе против China Southern Airlines», «Мартинес против Delta Airlines» и «Миллер против United Airlines». К сожалению для всех участников, никто из тех, кто читал записку, не смог найти ни одного судебного решения, на которое ссылались адвокаты Маты. За что? Потому что ChatGPT сделал их всех. Упс.

В письме под присягой, поданном в четверг, Шварц сказал, что использовал чат-бот, чтобы "завершить" свое расследование дела. Шварц написал, что он «не знал о возможности того, что контент [ChatGPT] может быть фальшивым». Он даже поделился скриншотами, на которых видно, что он спрашивал у ChatGPT, реальны ли приведенные случаи. Программа ответила утвердительно, заявив, что решения можно найти в «уважаемых юридических базах данных», включая Westlaw и LexisNexis.

Шварц сказал, что он «глубоко сожалеет» об использовании ChatGPT «и никогда не будет делать этого в будущем без полной проверки его подлинности». Вопрос о том, получит ли он еще один шанс написать юридическую записку, висит в воздухе. Судья, назначенный для рассмотрения дела, назначил слушание на 8 июня для обсуждения возможных наказаний за «беспрецедентные обстоятельства», созданные действиями Шварца.

Все продукты, рекомендованные Engadget, выбираются нашей редакционной группой независимо от нашей материнской компании. Некоторые из наших историй содержат партнерские ссылки. Если вы покупаете что-то по одной из этих ссылок, мы можем получить партнерскую комиссию. Все цены верны на момент публикации.

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow