ChatGPT bị phát hiện bịa đặt thông tin pháp lý trong một vụ kiện

P.W
30/5/2023 17:22Phản hồi: 55
ChatGPT bị phát hiện bịa đặt thông tin pháp lý trong một vụ kiện
Câu chuyện bắt đầu khi một người có tên Roberto Mata khởi kiện hãng hàng không Avianca, cho rằng mình bị thương vì chiếc xe đẩy bằng kim loại mà các tiếp viên chuyến bay đẩy dọc hành lang giữa các hàng ghế, mang đồ ăn thức uống cho hành khách. Khi hãng hàng không Avianca lên tiếng đề nghị thẩm phán hủy vụ kiện này, luật sư của Mata, Steven A. Schwartz, liệt kê trong một văn bản tóm tắt dài 10 trang, đưa ra ví dụ 6 vụ kiện tương tự cũng như kết án của tòa.

Trong văn bản này, có vụ kiện giữa Martinez với Delta Air Lines, Zicherman kiện Korean Air Lines, hay Varghese kiện China Southern Airlines.

Có một vấn đề nhỏ với những vụ kiện liệt kê ở trên, đó là cả những luật sư của hãng hàng không bị kiện, và cả chính bản thân ngài thẩm phán cũng đều không thể tìm nổi thông tin về phán quyết của những vụ kiện được liệt kê trong văn bản của luật sư Schwartz.

Lý do cũng đơn giản, Schwartz đã hỏi ChatGPT để liệt kê những vụ việc tương tự như những gì đã xảy ra với thân chủ Mata. Và ChatGPT đã tự bịa ra mọi vụ kiện, rồi khẳng định chúng đều có thật.

Hôm thứ 5 tuần trước, luật sư Schwartz đã phải thừa nhận dùng ChatGPT tổng hợp thông tin, để rồi hóa ra “nguồn thông tin này hoàn toàn không đáng tin cậy.” Thế là bỗng nhiên đã không còn cơ sở gì để bào chữa cho thân chủ, vị luật sư đang làm việc cho hãng luật Levidow, Levidow & Oberman còn đang phải đối mặt với cáo buộc lừa dối tòa án.

Thẩm phán P. Kevin Castel, người thụ lý vụ kiện nói rằng ông đã phải đối mặt với một sự kiện chưa từng có, với một văn bản pháp lý toàn những quyết định tư pháp, trích dẫn và chi tiết bịa đặt. Vị thẩm phán đã yêu cầu có một phiên điều trần để đưa ra quyết định, trong đó có thể có cả những biện pháp trừng phạt bản thân luật sư và hãng luật vì sai lầm chưa từng có liên quan tới ChatGPT.

Rõ ràng vụ việc xảy ra giữa vụ kiện giữa ông Mata và hãng hàng không Avianca chứng minh rằng, cái ngày AI thay thế con người trong những ngành liên quan tới tư pháp còn lâu mới đến.

Theo The New York Times
55 bình luận
Chia sẻ

Xu hướng

Cái tội ko muốn làm mà nhờ ChatGPT để có ăn 😆
@trontu20 Tội này thì không có gì oan ức. Nhờ ChatGPT là đúng nhưng sau đó phải kiểm tra lại thông tin do nó tổng hợp. Nếu bỏ qua bước này thì tức là tay luật sư quá tắc trách.
arbre
TÍCH CỰC
6 tháng
@trontu20 Hỏi chatGPT: tại sao con gà có 3 chân?
ChatGPT: tại vì 3 chân chạy nhanh hơn 2 chân 😄
Cho chừa cái tội ai nói gì cũng tin 😄
@arbre Bịa vừa thôi! Chat GPT nhiều cái nó xàm nhưng con gà 3 chân nó không xàm đâu.
Mày vui tính vãi
arbre
TÍCH CỰC
6 tháng
@Cao Hồ Nghĩa Chắc bạn không hiểu ý của tôi. Ý tôi đang nói về cách suy nghĩ, bây giờ các bạn trẻ hay gọi là “tư duy”. Tuỳ theo cách bạn đặt câu hỏi mà bạn nhận được câu trả lời tương ứng. Ví dụ bạn đặt câu hỏi “con chó có mấy chân?” thì câu trả lời khác với câu hỏi “tại sao con chó có bốn chân” bạn tìm tài liệu trên google cũng vậy, khi bạn gõ “communist is good.” thì kết quả nó khác với “is communist good?”
wannaback
ĐẠI BÀNG
6 tháng
hôm bữa đăng kí xong thì hỏi nó Lý Thường Kiệt là ai thì nó bảo anh hùng dân tộc Việt Nam có công trong trong công cuộc chống quân Nguyên Mông. Thôi dẹp mịe cho rồi.
@wannaback hỏi nó Lý Nhã Kỳ là ai nó mà nói con gái của Lý Thường Kiệt chắc xỉu up xỉu down =))
Anonymox
TÍCH CỰC
6 tháng
@Kent Light bingAI đây
lynhaky-bing.png
zeroabs
TÍCH CỰC
6 tháng
@Anonymox vãi AI.
tigerboy
TÍCH CỰC
6 tháng
Lỗi vì tin mấy chú nhập liệu ở Châu Phi.
@tigerboy Nó chỉ là một dạng Google biết nói với tổng hợp thôi mà .
Có thêm xíu giao tiếp, rồi cả đống người tưởng nó là " người siêu hiểu biết " thật.
Thua
Con GPT láo toét nhiều vụ rồi mà. Tin nó hoàn toàn thì ăn cám.
magez
TÍCH CỰC
6 tháng
@vicktorbui Cái ghê nhất là nó trả lời sai 1 cách rất tự tin & kiểu kiến thức đầy mình.

Có vài tip khi hỏi nó để chính xác hơn:
- Hỏi lại nó chắc chắn không, thường nó sẽ quay xe cho câu khác
- Nạp vào nó dữ liệu chính xác: vd kêu nó viết nội dung ABC dựa vào thông tin XYZ
@magez Mình toàn phải hỏi đi hỏi lại mấy lần cho các câu hỏi chuyên môn. Má nó, lắm lúc nó bốc phét như thật vậy ấy. Láo toét lắm.
iTect
TÍCH CỰC
6 tháng
@vicktorbui Người với người còn không tin được hoàn toàn mà. Chỉ mấy đứa ngu không khai thác được ChatGPT mới bất mãn thôi.
haico1992
ĐẠI BÀNG
6 tháng
@magez khác gì người thường đâu, quá ghê =))
Nongpoy
ĐẠI BÀNG
6 tháng
@vicktorbui Giống mình nè, xém xíu tiêu với nó 😆
Cái này thì hơi khó tin 😆 tùy vào cách truy vấn của ng dùng nữa chứ mình k tin máy móc sẽ tự bịa ra câu chuyện như vậy. Chắc chỉ là tin lá cải câu view thôi
@AZwarrior nếu bác dùng chatGPT nhiều sẽ thấy nó bịa thông tin như thật ý. Nên nếu ko có kiến thức về câu hỏi đầu bài sẽ dễ bị nó dắt mũi.
arbre
TÍCH CỰC
6 tháng
@doomeranger Vậy nó nên lấy khẩu hiệu của Sony “make believe.” 😄
vipjrm2
ĐẠI BÀNG
6 tháng
@AZwarrior bản chất của nó là một mô hình xử lý ngôn ngữ tự nhiên. cái nó làm giỏi nhất là mô phỏng lại cách mà con người viết ra câu văn sao cho giống và tự nhiên nhất. Và đó là cái duy nhất nó có thể làm được. Còn câu văn nó viết ra là đúng hay sai bản thân nó cũng không biết được nên nói là bịa chuyện thì cũng không đúng lắm. Một người được gọi là bịa chuyện chỉ khi họ biết là họ đang nói không đúng sự thật
phthinh
ĐẠI BÀNG
6 tháng
@AZwarrior Thử hỏi nó về chuyên môn, sau đó kêu đưa nó đưa nguồn references: phần lớn link ko tồn tại.
Phần mềm này nói dối một cách đáng tin đến kinh ngạc. Từ tên người, các sự kiện, nó bịa ra mà thật đến bất ngờ ấy
@Nguyennguyen0127 Code cũng vậy. Nó chế đâu ra mấy cái hàm mà framework, OS người ta chưa có mà nó viết vào code được : )))
@Hồng Xuân Quang Nhật Chắc nó viết trước, tương lai sẽ chạy được 😆
Mới đầu cứ tưởng là kỉ nguyên mới, thay thế GG. Hoá ra là 1 trò hề. Kiến thức sai tè le, bịa ẩu, định hướng...
Từ khi BingAI nhảy vô là thấy xàm rồi, giờ trang nào cũng a dua AI, Cốc cốc AI, Táo cũng xài AI làm mặt trăng giả...riết cũng quay về là máy học như xưa 😀
@Dragao_ct92 nó có dẫn nguồn mà, bạn thấy nguồn đáng tin thì chấp nhận, không thì thôi.
———
ĐẠI BÀNG
6 tháng
Nếu các ông hiểu cách hoạt động của nó thì sẽ thấy chuyện ấy là quá bình thường.
Nên coi nó như 1 công cụ hỗ trợ & phải tự tìm hiểu thêm nữa
h0an94nh
ĐẠI BÀNG
6 tháng
@cute pro Có mấy người lái ô tô hiểu cách hoạt động của động cơ đốt trong, nằm điều hoà hiểu cách hoạt động của bơm nhiệt ? Công cụ sinh ra là để sử dụng tin cậy và hiệu quả, chứ không phải tốn công đi kiểm chứng kết quả của nó tạo ra.
chuyện này có gì lạ, chatGPT thánh bịa.
AE dần thấy cái láo của chat GPT chưa, nó có thể tạo thông tin giả mạo
mrrdddddd
ĐẠI BÀNG
6 tháng
Ngu thì chết, đéo bệnh tật j ở đây, chatGPT chỉ là công cụ thôi, thằng nào giỏi thì biết khai thác, còn óc chó thì vẫn mãi là óc chó, ví dụ điển hình thằng nobita.
Không phải là chat GPT bịa đặt mà đây là tư duy suy đoán logic của hệ thống lập trình kiểu tiên đoán mà ra thôi
pisa
TÍCH CỰC
6 tháng
Lắm thằng ngáo ở VN vẫn chụp hình chat GPT ra để làm bằng chứng.
Tại sao lại là "ChatGPT bị phát hiện bịa đặt thông tin pháp lý trong một vụ kiện" ạ?

Trong khi OpenAI họ đã nói rõ ChatGPT là một sản phẩm thử nghiệm và có thể đưa ra thông tin không chính xác. Nó cũng không phải luật sư thì nó có trách nhiệm gì mà phải đưa thông tin pháp lý chính xác 100%?

Phải là "ông luật sư Schwartz bị phát hiện sử dụng thông tin pháp lý sai lệch vì dùng ChatGPT trong một vụ kiện" mới đúng
AyBee
TÍCH CỰC
6 tháng
@Gia Tường mà thực ra cũng đúng mà. GPT là chúa tể bịa đặt :v
@AyBee Bịa đặt là một đặc tính kỹ thuật của nó rồi bạn. Có gì mà phải “bị phát hiện” 😁
dịch bài có tâm, chính xác tí đi. do nó ko lấy được thông tin pháp lý, nên cho ra 1 đống dữ kiện ko giá trị, làm ông kia thua kiện.
@tuanmaskhp Hỏi bó có vài query không đủ dữ kiện bố nó cũng ko làm đc. Mà tít gốc là “Đây là những gì sẽ xảy ra khi luật sư của bạn sử dụng ChatGPT”. Ông mod bịa ra cái tít gây hiểu nhầm vl
tinhtrungdg bưng bô, khen chatgpt dìm Google đâu rồi, sao còn chưa thấy mặt 😁
makeno_ntt
ĐẠI BÀNG
6 tháng
ChatGPT trả lời lung tung lắm, tin vào nó nhiều lúc đổ thóc giống mà ăn thôi 😁
Capture.jpg
ChatGPT là trùm bịa chuyện rồi. Bữa hỏi nó chuyện "cây tre trăm đốt", nó trả lời mà muốn sặc cơm luôn https://tinhte.vn/thread/truyen-cay-tre-tram-dot-new-version.3629768/

Xu hướng

Bài mới









  • Chịu trách nhiệm nội dung: Trần Mạnh Hiệp
  • © 2023 Công ty Cổ phần MXH Tinh Tế
  • Địa chỉ: Số 70 Bà Huyện Thanh Quan, P. Võ Thị Sáu, Quận 3, TPHCM
  • Số điện thoại: 02822460095
  • MST: 0313255119
  • Giấy phép thiết lập MXH số 11/GP-BTTTT, Ký ngày: 08/01/2019