5 quy tắc an toàn của Google khi phát triển trí tuệ nhân tạo

Duy Luân
22/6/2016 10:10Phản hồi: 24
5 quy tắc an toàn của Google khi phát triển trí tuệ nhân tạo
Chris Olah, thành viên của nhóm Google Research, vừa cho biết 5 quy tắc của Google khi phát triển các sản phẩm trí tuệ nhân tạo. Những quy tắc này sẽ giúp tạo ra các hệ thống AI thông minh hơn song cũng an toàn hơn. Đây là một động thái của Google nhằm tiến thêm một bước trong việc đảm bảo trí tuệ nhân tạo sẽ không gây hại đến con người trong bối cảnh nhiều giả thuyết và lý luận đang đặt dấu chấm hỏi về ảnh hưởng của AI đến đời sống. 5 quy tắc của Google bao gồm:
  • Tránh tác dụng phụ tiêu cực: AI không được phép làm phiền môi trường xung quanh khi nó đang thực hiện công việc của mình
  • Tránh hack để thưởng: AI cần phải hoàn thành tác vụ được giao một cách đầy đủ thay vì đi "đường vòng" (ví dụ một con robot hút bụi lấy một thứ mà nó không nhận biết là bụi để che đậy những chỗ dơ khác).
  • Dễ phát triển: AI không cần nhận phản hồi hay dữ liệu đầu vào một cách thường xuyên chỉ để làm việc hiệu quả hơn
  • Khám phá an toàn: AI không được phép làm hại chính nó hoặc môi trường xung quanh khi nó đang trong quá trình học hỏi
  • Vẫn chạy tốt trong các điều kiện khác nhau: AI cần có khả năng nhận biết môi trường mới và vẫn hoạt động hiệu quả trong môi trường đó
Nguồn: Google
24 bình luận
Chia sẻ

Xu hướng

kungfu9
CAO CẤP
8 năm
Thôi thua...sao mà tin được...😕
nhưng con người cần tiến hoá:rolleyes:
thêm phần tự hủy nếu có biến ......
Nguyên tắc ngộ quá
Vãi cả nguyên tắc
Cái gì cũng có 2 mặt. Với người tốt nó sẽ giúp ích cho con người. Với người xấu, nó sẽ là thảm hoạ cho con người. Cách phòng tránh tốt nhất là ko tạo ra nó, đồng nghĩa với ko có thảm hoạ trong tuơng lai.
nguyenxx
ĐẠI BÀNG
8 năm
@Giàng A Lúa À thì ra đi ngược với sự phát trển là cách tốt nhất! Thank bạn đã mách nước cho loài người 😔
Khanh.Lam
ĐẠI BÀNG
8 năm
Không có quy tắc không được làm hại con người nhỉ?
  • "Khám phá an toàn: AI không được phép làm hại chính nó hoặc môi trường xung quanh khi nó đang trong quá trình học hỏi"
Vậy thì lúc nó hết cái để học rồi thì lúc đó thoải mái chém giết và phá hoại. 😁
anhtkl
TÍCH CỰC
8 năm
Đến lúc nó tự nhận thức đc thì chả có cái nguyên tắc nào mà nó ko tự gỡ đc!
Chinhas
ĐẠI BÀNG
8 năm
6. Nếu Al chỉ cố gắng tìm cách xóa các dòng lệnh an toàn đó, nó sẽ bị treo cổ
@Chinhas no la al ma treo co no cung k chet dau
hienpham1984
ĐẠI BÀNG
8 năm
Năm 1984, phần 1 Terminator ra đời nói về robot sinh học, có liên quan mật thiết đến trí thông minh nhân tạo. Hồi đó coi phim bảo là giả tưởng, ai ngờ đâu 30 năm sau nó thành hiện thực. Vậy từ giờ đến 30 năm nữa thì công nghệ robot sẽ phát triển đến đâu?? trí thông minh nhân tạo lúc đó sẽ "khôn" đến như thế nào và việc người máy nổi loạn chống lại con người là...ko thể tránh khỏi. Vấn đề là con người vẫn sẽ tiếp tục chế ngự được robot như đã từng chế ngự được thiên nhiên (dự báo được động, đất sóng thần, núi lửa và bão, thuần hóa thú và cây trồng hoang). Con người chỉ diệt vong trong bàn tay của tạo hóa, chứ ko gì có thể diệt vong được con người.

Ý kiến cá nhân đừng chém vô ích.
cuthuyen
TÍCH CỰC
8 năm
Có ai rảnh phân tích tại sao google lại chọn 5 nguyên tắc này không?
5 điều Gu gồ dạy... với AI
phd5
ĐẠI BÀNG
8 năm
Yên tâm, AI rồi cũng học được cách lách luật như con người thôi. ^^
Bữa nay có " 5 điều bác Gồ dạy" cho AI nữa ah 😁...
I.Corp
TÍCH CỰC
8 năm
Nhớ 3 điều luật trong I,robot
LMVuong
ĐẠI BÀNG
8 năm
Cái gì cũng có 2 mặt, hiện đại luôn đi đôi với "hại điện"z
Chỉ sợ quá trình tự học của nó học phải người xấu thì ắt là sẽ xấu thôi :v
TaóNô
ĐẠI BÀNG
8 năm
Nguyên tắc cũng chỉ trên giấy thế thôi. AI do con người phát triển -> mang tính chủ quan của người làm ra nó
amama
ĐẠI BÀNG
8 năm
Phải có những nguyên tắc về đạo đức.

Xu hướng

Bài mới









  • Chịu trách nhiệm nội dung: Trần Mạnh Hiệp
  • © 2024 Công ty Cổ phần MXH Tinh Tế
  • Địa chỉ: Số 70 Bà Huyện Thanh Quan, P. Võ Thị Sáu, Quận 3, TPHCM
  • Số điện thoại: 02822460095
  • MST: 0313255119
  • Giấy phép thiết lập MXH số 11/GP-BTTTT, Ký ngày: 08/01/2019