Câu chuyện bắt đầu khi một người có tên Roberto Mata khởi kiện hãng hàng không Avianca, cho rằng mình bị thương vì chiếc xe đẩy bằng kim loại mà các tiếp viên chuyến bay đẩy dọc hành lang giữa các hàng ghế, mang đồ ăn thức uống cho hành khách. Khi hãng hàng không Avianca lên tiếng đề nghị thẩm phán hủy vụ kiện này, luật sư của Mata, Steven A. Schwartz, liệt kê trong một văn bản tóm tắt dài 10 trang, đưa ra ví dụ 6 vụ kiện tương tự cũng như kết án của tòa.
Trong văn bản này, có vụ kiện giữa Martinez với Delta Air Lines, Zicherman kiện Korean Air Lines, hay Varghese kiện China Southern Airlines.
Có một vấn đề nhỏ với những vụ kiện liệt kê ở trên, đó là cả những luật sư của hãng hàng không bị kiện, và cả chính bản thân ngài thẩm phán cũng đều không thể tìm nổi thông tin về phán quyết của những vụ kiện được liệt kê trong văn bản của luật sư Schwartz.
Lý do cũng đơn giản, Schwartz đã hỏi ChatGPT để liệt kê những vụ việc tương tự như những gì đã xảy ra với thân chủ Mata. Và ChatGPT đã tự bịa ra mọi vụ kiện, rồi khẳng định chúng đều có thật.
Hôm thứ 5 tuần trước, luật sư Schwartz đã phải thừa nhận dùng ChatGPT tổng hợp thông tin, để rồi hóa ra “nguồn thông tin này hoàn toàn không đáng tin cậy.” Thế là bỗng nhiên đã không còn cơ sở gì để bào chữa cho thân chủ, vị luật sư đang làm việc cho hãng luật Levidow, Levidow & Oberman còn đang phải đối mặt với cáo buộc lừa dối tòa án.
Thẩm phán P. Kevin Castel, người thụ lý vụ kiện nói rằng ông đã phải đối mặt với một sự kiện chưa từng có, với một văn bản pháp lý toàn những quyết định tư pháp, trích dẫn và chi tiết bịa đặt. Vị thẩm phán đã yêu cầu có một phiên điều trần để đưa ra quyết định, trong đó có thể có cả những biện pháp trừng phạt bản thân luật sư và hãng luật vì sai lầm chưa từng có liên quan tới ChatGPT.
Rõ ràng vụ việc xảy ra giữa vụ kiện giữa ông Mata và hãng hàng không Avianca chứng minh rằng, cái ngày AI thay thế con người trong những ngành liên quan tới tư pháp còn lâu mới đến.
Theo The New York Times
Trong văn bản này, có vụ kiện giữa Martinez với Delta Air Lines, Zicherman kiện Korean Air Lines, hay Varghese kiện China Southern Airlines.
Có một vấn đề nhỏ với những vụ kiện liệt kê ở trên, đó là cả những luật sư của hãng hàng không bị kiện, và cả chính bản thân ngài thẩm phán cũng đều không thể tìm nổi thông tin về phán quyết của những vụ kiện được liệt kê trong văn bản của luật sư Schwartz.
Lý do cũng đơn giản, Schwartz đã hỏi ChatGPT để liệt kê những vụ việc tương tự như những gì đã xảy ra với thân chủ Mata. Và ChatGPT đã tự bịa ra mọi vụ kiện, rồi khẳng định chúng đều có thật.
Hôm thứ 5 tuần trước, luật sư Schwartz đã phải thừa nhận dùng ChatGPT tổng hợp thông tin, để rồi hóa ra “nguồn thông tin này hoàn toàn không đáng tin cậy.” Thế là bỗng nhiên đã không còn cơ sở gì để bào chữa cho thân chủ, vị luật sư đang làm việc cho hãng luật Levidow, Levidow & Oberman còn đang phải đối mặt với cáo buộc lừa dối tòa án.
Thẩm phán P. Kevin Castel, người thụ lý vụ kiện nói rằng ông đã phải đối mặt với một sự kiện chưa từng có, với một văn bản pháp lý toàn những quyết định tư pháp, trích dẫn và chi tiết bịa đặt. Vị thẩm phán đã yêu cầu có một phiên điều trần để đưa ra quyết định, trong đó có thể có cả những biện pháp trừng phạt bản thân luật sư và hãng luật vì sai lầm chưa từng có liên quan tới ChatGPT.
Rõ ràng vụ việc xảy ra giữa vụ kiện giữa ông Mata và hãng hàng không Avianca chứng minh rằng, cái ngày AI thay thế con người trong những ngành liên quan tới tư pháp còn lâu mới đến.
Theo The New York Times