Một nhóm các nhà khoa học, học giả và nhân vật truyền thông nổi tiếng tại Mỹ vừa kêu gọi cấm phát triển trí tuệ nhân tạo siêu việt (superintelligent AI) cho đến khi nhân loại có thể kiểm soát hoàn toàn và đảm bảo an toàn cho công nghệ này.
Theo Reuters, tuyên bố được công bố ngày 22/10 bởi tổ chức Campaign for AI Accountability phối hợp cùng Future of Life Institute (FLI), là một tổ chức từng kêu gọi tạm dừng huấn luyện AI mạnh hồi năm 2023. Danh sách ký tên cc các nhân vật đáng chú ý như Geoffrey Hinton (được xem là “cha đẻ của deep learning”), Yoshua Bengio (người đoạt giải Turing 2018), Steve Wozniak (đồng sáng lập Apple), cùng các nhân vật truyền thông như Steve Bannon, Glenn Beck, và cả Hoàng tử Harry cùng vợ Meghan Markle.
Trong bản tuyên bố, nhóm này cảnh báo: “Chúng ta đang tạo ra những cỗ máy thông minh hơn con người trong hầu hết mọi lĩnh vực, mà chưa có hệ thống nào đảm bảo an toàn lâu dài. Nếu tiếp tục, hậu quả có thể vượt ngoài tầm kiểm soát.”
Họ kêu gọi các chính phủ tạm ngưng mọi dự án phát triển AI có khả năng vượt năng lực con người, cho đến khi có khung pháp lý và cơ chế kiểm soát quốc tế đủ mạnh để giám sát, kiểm định và can thiệp khi cần thiết.
Theo Reuters, tuyên bố được công bố ngày 22/10 bởi tổ chức Campaign for AI Accountability phối hợp cùng Future of Life Institute (FLI), là một tổ chức từng kêu gọi tạm dừng huấn luyện AI mạnh hồi năm 2023. Danh sách ký tên cc các nhân vật đáng chú ý như Geoffrey Hinton (được xem là “cha đẻ của deep learning”), Yoshua Bengio (người đoạt giải Turing 2018), Steve Wozniak (đồng sáng lập Apple), cùng các nhân vật truyền thông như Steve Bannon, Glenn Beck, và cả Hoàng tử Harry cùng vợ Meghan Markle.
Cuộc đua AI đang diễn ra quá nhanh và thiếu kiểm soát
Trong bản tuyên bố, nhóm này cảnh báo: “Chúng ta đang tạo ra những cỗ máy thông minh hơn con người trong hầu hết mọi lĩnh vực, mà chưa có hệ thống nào đảm bảo an toàn lâu dài. Nếu tiếp tục, hậu quả có thể vượt ngoài tầm kiểm soát.”
Họ kêu gọi các chính phủ tạm ngưng mọi dự án phát triển AI có khả năng vượt năng lực con người, cho đến khi có khung pháp lý và cơ chế kiểm soát quốc tế đủ mạnh để giám sát, kiểm định và can thiệp khi cần thiết.
Sự đồng thuận hiếm hoi giữa hai phe đối lập
Đây là lần hiếm hoi giới nghiên cứu AI cấp tiến và giới bảo thủ Mỹ cùng thể hiện lập trường thận trọng. Geoffrey Hinton, người từng rời Google năm 2023, là một trong những tiếng nói mạnh mẽ kêu gọi “chậm lại với AI”. Ông cảnh báo rằng các hệ thống học sâu đang phát triển nhanh đến mức “chính con người cũng không hiểu nổi cách chúng hoạt động bên trong.”
Theo The Guardian, bản tuyên bố thu hút hơn 1.200 chữ ký, trong đó có nhiều nhà khoa học đoạt giải Nobel như Frank Wilczek và Beatrice Fihn, cùng Richard Branson (nhà sáng lập Virgin Group) và diễn viên Stephen Fry.
Các chuyên gia cảnh báo về hiện tượng “hộp đen” trong AI
Một số mô hình như GPT-5 hay Gemini của Google đã thể hiện khả năng tự tối ưu hành vi vượt ngoài dự đoán của kỹ sư thiết kế. Dù chưa đạt đến mức “siêu trí tuệ”, nhưng việc các hệ thống có thể tự học và thay đổi hành vi theo cách con người không lý giải được đang trở thành vấn đề nghiêm trọng.
Vấn đề không chỉ là công nghệ, mà còn là trách nhiệm con người
Các nhà khoa học nhấn mạnh rằng nếu AI vượt khỏi tầm hiểu biết của con người, câu hỏi “ai chịu trách nhiệm khi AI gây hậu quả?” cần được đặt ra ngay từ bây giờ. Họ kêu gọi thiết lập tiêu chuẩn đạo đức, an toàn và cơ chế kiểm soát quốc tế trước khi phát triển thế hệ AI tiếp theo.
Theo khảo sát của FLI tại Mỹ, có tới 75% người dân muốn quy định chặt chẽ hơn với AI, và 6 trong 10 người tin rằng AI siêu trí tuệ không nên được phát triển cho đến khi chứng minh được tính an toàn.
Theo Reuters, The Guardian.




