
Использование искусственного интеллекта в судебном процессе привело к неожиданным последствиям. Адвокат Стивен Шварц, который представлял интересы своего клиента в суде против авиакомпании Avianca, попал в сложную ситуацию из-за использования системы ChatGPT.
В ходе процесса Шварц использовал несколько судебных прецендентов, которые, по мнению судьи, оказались поддельными. Они содержали недостоверные цитаты и ссылки. Источником этой информации стал ChatGPT.
Как заявил Шварц в своем заявлении, он впервые использовал ChatGPT в этом деле и не был знаком с возможностью получения от системы ложной информации. Он принял ответственность за непроверку источников, предоставленных чатботом.
Теперь Шварцу предстоит пройти слушание по вопросу санкций, которое запланировано на 8 июня. В своем заявлении он выразил сожаление об использовании генеративного ИИ для юридического исследования и обещал больше не применять его без абсолютной проверки подлинности источников.
Источник
В ходе процесса Шварц использовал несколько судебных прецендентов, которые, по мнению судьи, оказались поддельными. Они содержали недостоверные цитаты и ссылки. Источником этой информации стал ChatGPT.
Как заявил Шварц в своем заявлении, он впервые использовал ChatGPT в этом деле и не был знаком с возможностью получения от системы ложной информации. Он принял ответственность за непроверку источников, предоставленных чатботом.
Теперь Шварцу предстоит пройти слушание по вопросу санкций, которое запланировано на 8 июня. В своем заявлении он выразил сожаление об использовании генеративного ИИ для юридического исследования и обещал больше не применять его без абсолютной проверки подлинности источников.
Источник