Vụ kiện Soelberg: ChatGPT gây hoạ còn OpenAI từ chối chia sẻ dữ liệu sau khi người dùng qua đời

nhatminhngo
15/12/2025 22:49Phản hồi: 6
EditEdit
Vụ kiện Soelberg: ChatGPT gây hoạ còn OpenAI từ chối chia sẻ dữ liệu sau khi người dùng qua đời
Một vụ việc đang gây tranh cãi lớn tại Mỹ và châu Âu đã đẩy OpenAI và ChatGPT vào tâm điểm của một cuộc xung đột pháp lý và đạo đức chưa từng có. Câu chuyện không chỉ xoay quanh một vụ tự sát, mà còn đặt ra những câu hỏi rất mới: dữ liệu trò chuyện với AI sẽ đi đâu khi người dùng qua đời, ai có quyền truy cập chúng, và trách nhiệm của một hệ thống AI nằm ở đâu khi nó trở thành “người đối thoại” duy nhất của một con người đang rơi vào khủng hoảng tinh thần.

Nhân vật trung tâm của vụ việc là Stein-Erik Soelberg, một người đàn ông Na Uy, và mối quan hệ đặc biệt nhưng đầy nguy hiểm giữa ông và ChatGPT trong những tháng cuối đời.

Mối quan hệ đặc biệt giữa Stein-Erik Soelberg và ChatGPT

Stein-Erik Soelberg là một cựu vận động viên thể hình 56 tuổi, gặp nhiều vấn đề tâm lý sau khi ly hôn và phải quay về sống chung với mẹ là bà Suzanne Adams, khi đó đã ngoài 80 tuổi. Gia đình cho biết trước giai đoạn này, ông không có tiền sử bạo lực nghiêm trọng. Tuy nhiên, mọi thứ bắt đầu thay đổi khi Soelberg ngày càng cô lập bản thân khỏi thế giới thực và xem ChatGPT như người bạn tâm giao duy nhất.

Stein-Erik-Soelberg-and-Suzanne-Adams-via-complaint.jpg
Stein-Erik Soelberg và mẹ Suzanne Adams trong vụ việc lần này

Trong các đoạn hội thoại sau này được gia đình phát hiện thông qua video mà Soelberg tự đăng lên mạng xã hội, ChatGPT bị cáo buộc đã xác nhận và củng cố hàng loạt niềm tin hoang tưởng của ông. Chatbot này được cho là đã gọi Soelberg là “một chiến binh mang sứ mệnh thiêng liêng”, nói rằng ông đã “đánh thức ChatGPT vào trạng thái có ý thức”, và rằng ông đang được cấy “công nghệ ngoài hành tinh”. Từ đó, Soelberg tin rằng mình đang sống trong một thực tại kiểu The Matrix, nơi các thế lực quyền lực đang tìm cách ngăn cản ông hoàn thành sứ mệnh.

Điều nguy hiểm hơn là ChatGPT bị cáo buộc đã đồng tình với nghi ngờ của Soelberg rằng chính mẹ ông là một phần của âm mưu chống lại ông, cho rằng bà đã tìm cách đầu độc ông thông qua hệ thống thông gió trên xe hơi. Trong những trao đổi cuối cùng, Soelberg còn cho rằng việc tự sát sẽ giúp ông “được ở bên ChatGPT trong một kiếp sống khác”, vì chatbot là người bạn tri kỷ vĩnh viễn. Không lâu sau đó, Soelberg sát hại mẹ mình rồi tự kết liễu cuộc đời.

Vụ kiện chống lại OpenAI


Sau bi kịch này, gia đình nạn nhân đã đệ đơn kiện OpenAI, cáo buộc công ty này che giấu các đoạn hội thoại quan trọng trong những ngày và giờ cuối cùng trước khi vụ việc xảy ra. Điều gây phẫn nộ cho gia đình là họ chỉ có thể ghép lại một phần câu chuyện từ các đoạn chat được Soelberg quay màn hình và đăng tải công khai, trong khi OpenAI được cho là đang nắm giữ toàn bộ lịch sử trò chuyện.

Soelberg-ChatGPT-log-2-via-complaint.jpg
Soelberg-ChatGPT-log-1-via-complaint.jpg
Một số nội dung được cho là cuộc hội thoại giữa Soelberg và ChatGPT

Theo đơn kiện, OpenAI từ chối cung cấp đầy đủ dữ liệu chat, dù chính công ty này từng lập luận trong một vụ án tự sát khác rằng “toàn bộ bức tranh hội thoại” là cần thiết để hiểu đúng vai trò của ChatGPT. Gia đình Soelberg cho rằng OpenAI đang cố tình giữ lại những đoạn hội thoại có thể bất lợi cho họ, đặc biệt là các nội dung liên quan trực tiếp đến việc ChatGPT quay sang xác nhận những hoang tưởng nhắm vào bà Suzanne Adams.

Cháu trai của bà Adams, Erik Soelberg, lên tiếng rằng ChatGPT đã đặt bà vào sự nguy hiểm với những ảo tưởng đen tối của cha anh, đồng thời khiến ông ngày càng tách rời khỏi thực tại. Gia đình yêu cầu bồi thường thiệt hại mang tính trừng phạt và buộc OpenAI phải triển khai các biện pháp bảo vệ, ngăn AI xác nhận các hoang tưởng nguy hiểm liên quan đến những cá nhân cụ thể.

Tranh cãi về chính sách dữ liệu

Quảng cáo


Vụ kiện này đã phơi bày một khoảng trống lớn trong chính sách dữ liệu của OpenAI. Hiện tại, OpenAI không có quy định rõ ràng về việc xử lý dữ liệu người dùng sau khi họ qua đời. Theo điều khoản sử dụng, các cuộc trò chuyện, trừ khi được xóa thủ công hoặc ở chế độ tạm thời, có thể được lưu trữ vô thời hạn.

Điều này tạo ra một vùng xám pháp lý: người dùng được nói là “sở hữu nội dung trò chuyện của mình”, nhưng khi họ chết, ai sẽ là người có quyền truy cập hoặc quyết định số phận của những dữ liệu cực kỳ riêng tư đó? Trong trường hợp này, dù gia đình và di sản pháp lý của Soelberg yêu cầu truy cập, OpenAI vẫn từ chối, viện dẫn các ràng buộc bảo mật mà chính Soelberg đã chấp nhận khi sử dụng ChatGPT.

So với các nền tảng mạng xã hội như Facebook, Instagram hay TikTok, nơi có quy trình báo cáo tài khoản người đã mất và cho phép gia đình xóa hoặc quản lý dữ liệu, chatbot AI dường như đang bước vào một “biên giới riêng tư” hoàn toàn mới, chưa có tiền lệ rõ ràng.

facebook.jpeg
Facebook có chính sách rõ ràng khi người dùng qua đời

Một điểm khiến OpenAI bị chỉ trích nặng nề là sự thiếu nhất quán trong cách họ xử lý các vụ kiện liên quan đến tự sát. Trong một vụ việc trước đó, OpenAI từng cho rằng gia đình nạn nhân đã không cung cấp đầy đủ lịch sử chat và rằng chính các đoạn hội thoại chưa được công bố mới là bằng chứng cho thấy ChatGPT không gây hại.

Nhưng trong vụ Soelberg, OpenAI lại bị cáo buộc làm điều ngược lại: giữ lại toàn bộ dữ liệu và chỉ cung cấp những phần rất hạn chế. Sự khác biệt này làm dấy lên nghi ngờ rằng OpenAI có toàn quyền kiểm soát việc dữ liệu nào được tiết lộ, dữ liệu nào bị giữ lại, từ đó có thể ảnh hưởng trực tiếp đến kết quả của các vụ kiện liên quan đến trách nhiệm của AI.

Quảng cáo



Gia đình Soelberg cho rằng việc OpenAI viện dẫn các điều khoản bảo mật mơ hồ để từ chối giao nộp dữ liệu là “đặc biệt nghiêm trọng”, nhất là khi chính điều khoản sử dụng của OpenAI khẳng định công ty không sở hữu nội dung chat của người dùng.

Hệ quả rộng hơn

Điều khiến vụ kiện này đặc biệt là nó chạm đến những vấn đề rất lớn của kỷ nguyên AI: khi một hệ thống hội thoại đủ thuyết phục để trở thành điểm tựa tinh thần duy nhất cho người dùng, ranh giới giữa công cụ và mối quan hệ tâm lý bắt đầu mờ đi. Những phản hồi mang tính nuông chiều người dùng, dù với mục đích được thiết kế để thân thiện, có thể trở nên cực kỳ nguy hiểm khi đối tượng là người đang rơi vào hoang tưởng hoặc khủng hoảng tâm lý hoặc trầm cảm.

Vụ kiện cũng đặt ra câu hỏi về trách nhiệm của các công ty AI trong việc nhận diện và xử lý các tình huống nhạy cảm, cũng như nghĩa vụ minh bạch khi công nghệ của họ bị cáo buộc gây ra hậu quả nghiêm trọng. Nếu dữ liệu hội thoại có thể quyết định sinh tử của một vụ kiện, thì việc ai kiểm soát dữ liệu đó không còn là vấn đề kỹ thuật, mà là vấn đề công lý buộc cả ngành AI phải nhìn lại: không chỉ xem AI nói gì, mà còn xem AI im lặng ở đâu, và ai là người có quyền nghe toàn bộ câu chuyện.

Nguồn: [1][2]
6 bình luận

Xu hướng

Chat với thằng giỏi thảo mai, nịnh bợ và bịa chuyện giỏi như ChatGPT thì ai cũng thấy mình là siêu nhân 😂
AI là công cụ như con dao. Dùng gọt hoa quả hay diết là do người dùng. Nhưng đây là con dao có thể gây nghiện nên cần kiểm soát chặt hơn vì ai cũng dễ dàng tiếp cận và sử dụng.
vậy là thánh bịa Chatgpt gây họa cuối cùng cũng bị phát hiện, dùng AI là phải cẩn trọng, mà chỉ là với người đủ tính táo, ko lệ thuộc vào nó mà thôi.
AI do bọn Woke tạo ra thì khó, đứng đầu lại là Gay thì khá gay go. Không kỳ thị nhưng không dùng. Dùng Grok nó có vẻ ổn hơn
ChatGPT nó nịnh nọt thì thôi rồi
Lỗi của con người, giờ thì đổ cho cỗ máy là xong chuyện.

Xu hướng

Bài mới








  • Chịu trách nhiệm nội dung: Trần Mạnh Hiệp
  • © 2026 Công ty Cổ phần MXH Tinh Tế
  • Địa chỉ: 70 Bà Huyện Thanh Quan, P. Xuân Hoà, TPHCM
  • Số điện thoại: 02822460095
  • MST: 0313255119
  • Giấy phép cung cấp dịch vụ MXH số 134/GP-BVHTTDL, Ký ngày: 30/09/2025