Blake Lemoine - kỹ sư của Google trước đó tuyên bố với công chúng phần mềm trí tuệ nhân tạo LaMDA mà công ty đang phát triển có tri giác, đã chính thức bị sa thải sau thời gian đình chỉ công tác. Từ tháng 6, Google đã cho Lemoine tạm ngừng công việc nhưng vẫn trả lương, sau khi anh này bị cho là có những hành vi vi phạm thoả thuận bảo mật đã ký kết với công ty từ trước. Lemoine đã liên hệ với các nhân viên của chính phủ để chia sẻ những lo ngại của anh, đồng thời thuê cả luật sư để đại diện cho LaMDA.
Brian Gabriel, người phát ngôn của Google xác nhận Lemoine đã bị cho thôi việc, cho biết LaMDA đã trải qua 11 cuộc đánh giá riêng biệt và Google cũng xuất bản 1 báo cáo nghiên cứu trình bày chi tiết quá trình phát triển phần mềm này. Công ty con của tập đoàn Alphabet khẳng định tuyên bố của Lemoine là hoàn toàn vô căn cứ. Viết tới đây tự nhiên mình lại liên tưởng đến con NPC có tri giác trong bộ phim khoa học viễn tưởng Free Guy.
Trên thực tế, nhiều chuyên gia về AI cũng như các nhà đạo đức học đều cho rằng tuyên bố của Lemoine về cơ bản là không thể, đặc biệt đối với trình độ công nghệ ở thời điểm hiện tại. Lemoine cho rằng qua các cuộc hội thoại của anh với LaMDA, anh tin rằng nó không đơn thuần chỉ là một chatbot nữa mà còn phát triển cả suy nghĩ và cảm nhận của riêng nó.
Với lập luận này, Lemoine tin rằng các nhà nghiên cứu của Google cần có sự đồng ý của LaMDA trước khi thực hiện bất kỳ thử nghiệm nào đối với nó. Lemoine được giao nhiệm vụ thường xuyên trò chuyện với LaMDA để xem nó có tạo ra các câu nói mang tính căm thù, chia rẽ hay không. Thế nên trong các bài đăng trên Medium, anh đã công khai các đoạn chat này lên để làm bằng chứng.
Dưới đây là chi tiết những gì mà Google đã trả lời nhằm phản bác và đưa ra quyết định cho thôi việc kỹ sư Lemoine.
“Như chúng tôi chia sẻ trong bộ “Nguyên tắc AI”, chúng tôi rất coi trọng sự phát triển của AI và luôn cam kết đổi mới có trách nhiệm. LaMDA đã trải qua 11 lần đánh giá riêng biệt và chúng tôi đã xuất bản một báo cáo nghiên cứu vào đầu năm nay để trình bày chi tiết quá trình phát triển có trách nhiệm đó. Nếu một nhân viên chia sẻ những lo lắng về những gì mà chúng tôi đang thực hiện, như cách mà Blake đã làm, chúng tôi sẽ xem xét họ một cách toàn diện.
Chúng tôi nhận thấy tuyên bố của Blake về LaMDA là hoàn toàn vô căn cứ và đã làm việc để làm rõ điều đó với anh ấy trong nhiều tháng. Những buổi nói chuyện đó là một phần của văn hoá công ty nhằm giúp chúng tôi đổi mới nhưng đi kèm với trách nhiệm. Vì vậy, thật đáng tiếc là mặc dù đã theo vụ việc này một thời gian dài, Blake vẫn cố chấp vi phạm các chính sách về công việc và bảo mật dữ liệu. Chúng tôi sẽ tiếp tục phát triển một cách cẩn thận các mô hình ngôn ngữ, và chúc mọi điều tốt lành với Blake”.
Nguồn: The Verge
Brian Gabriel, người phát ngôn của Google xác nhận Lemoine đã bị cho thôi việc, cho biết LaMDA đã trải qua 11 cuộc đánh giá riêng biệt và Google cũng xuất bản 1 báo cáo nghiên cứu trình bày chi tiết quá trình phát triển phần mềm này. Công ty con của tập đoàn Alphabet khẳng định tuyên bố của Lemoine là hoàn toàn vô căn cứ. Viết tới đây tự nhiên mình lại liên tưởng đến con NPC có tri giác trong bộ phim khoa học viễn tưởng Free Guy.
Trên thực tế, nhiều chuyên gia về AI cũng như các nhà đạo đức học đều cho rằng tuyên bố của Lemoine về cơ bản là không thể, đặc biệt đối với trình độ công nghệ ở thời điểm hiện tại. Lemoine cho rằng qua các cuộc hội thoại của anh với LaMDA, anh tin rằng nó không đơn thuần chỉ là một chatbot nữa mà còn phát triển cả suy nghĩ và cảm nhận của riêng nó.
Với lập luận này, Lemoine tin rằng các nhà nghiên cứu của Google cần có sự đồng ý của LaMDA trước khi thực hiện bất kỳ thử nghiệm nào đối với nó. Lemoine được giao nhiệm vụ thường xuyên trò chuyện với LaMDA để xem nó có tạo ra các câu nói mang tính căm thù, chia rẽ hay không. Thế nên trong các bài đăng trên Medium, anh đã công khai các đoạn chat này lên để làm bằng chứng.
Dưới đây là chi tiết những gì mà Google đã trả lời nhằm phản bác và đưa ra quyết định cho thôi việc kỹ sư Lemoine.
“Như chúng tôi chia sẻ trong bộ “Nguyên tắc AI”, chúng tôi rất coi trọng sự phát triển của AI và luôn cam kết đổi mới có trách nhiệm. LaMDA đã trải qua 11 lần đánh giá riêng biệt và chúng tôi đã xuất bản một báo cáo nghiên cứu vào đầu năm nay để trình bày chi tiết quá trình phát triển có trách nhiệm đó. Nếu một nhân viên chia sẻ những lo lắng về những gì mà chúng tôi đang thực hiện, như cách mà Blake đã làm, chúng tôi sẽ xem xét họ một cách toàn diện.
Chúng tôi nhận thấy tuyên bố của Blake về LaMDA là hoàn toàn vô căn cứ và đã làm việc để làm rõ điều đó với anh ấy trong nhiều tháng. Những buổi nói chuyện đó là một phần của văn hoá công ty nhằm giúp chúng tôi đổi mới nhưng đi kèm với trách nhiệm. Vì vậy, thật đáng tiếc là mặc dù đã theo vụ việc này một thời gian dài, Blake vẫn cố chấp vi phạm các chính sách về công việc và bảo mật dữ liệu. Chúng tôi sẽ tiếp tục phát triển một cách cẩn thận các mô hình ngôn ngữ, và chúc mọi điều tốt lành với Blake”.
Nguồn: The Verge