Có nhà nghiên cứu nói rằng 200 năm nữa AI sẽ có khả năng tiêu diệt loài người

P.W
20/4/2024 9:11Phản hồi: 47
Có nhà nghiên cứu nói rằng 200 năm nữa AI sẽ có khả năng tiêu diệt loài người
Một nghiên cứu khoa học mới được công bố chắc chắn sẽ gây ra nhiều tranh luận. Chủ biên nghiên cứu này là Michael Garrett, nhà nghiên cứu thiên văn vô tuyến thuộc đại học Manchester, giám đốc trung tâm vật lý thiên văn Jodrell Bank. Quan điểm của ông Garrett thông qua nghiên cứu này, một nền văn minh, dù là con người hay người ngoài hành tinh, cũng đều có thể bị AI mất kiểm soát xóa bỏ hoàn toàn trong vòng 100 đến 200 năm, nếu trí thông minh máy móc không được kiểm soát.

Giả thuyết được nhà khoa học người Anh Quốc đưa ra là, lý do đến tận thời điểm hiện tại, vẫn chưa có nền văn minh nào bên ngoài trái đất gửi tín hiệu kết nối với loài người, chính là vì AI đã khiến những nền văn minh ấy bị tuyệt diệt. Nó là nghiên cứu để giải thích cho khái niệm gọi là Nghịch lý Fermi: Nếu như vũ trụ là vô hạn, vì sao đến giờ chưa có nền văn minh nào liên lạc với chúng ta?

Câu hỏi được Garrett đặt ra, là giả sử họ phát triển ra trí thông minh chạy bằng máy móc, y hệt AI như con người đang chạy đua phát triển, rất có thể nền văn minh ấy bị chính những AI mất kiểm soát xóa bỏ hoàn toàn. Sự kiện trên lý thuyết này được gọi là The Great Filter, kéo theo sự diệt chủng của cả một nền văn minh, dẫn tới việc không một chủng loài ngoài trái đất nào liên lạc được với loài người, khái niệm này gọi là The Great Silence.

fermi.jpg

Garrett đưa ra giả thuyết này dựa vào việc so sánh những giả thuyết về những trí thông minh máy móc ở tầm siêu đẳng, với những bằng chứng thực tế và rõ ràng có được thông qua những nghiên cứu thiên văn vô tuyến, tìm kiếm những nguồn tín hiệu ở những dải ngân hà xa xôi.


Nhà khoa học Anh Quốc giải thích rằng, các nhà khoa học trên toàn cầu càng lúc càng thấy bất an vì đã phải chờ đợi quá lâu mà chưa tìm ra một nền văn minh khác ngoài con người trên trái đất: “Khái niệm The Great Silence thể hiện một nghịch lý khi đặt cạnh những phát kiến thiên văn học khác, chứng minh rằng vũ trụ luôn chào đón những hình thái sống có trí thông minh. Khái niệm The Great Filter thường được sử dụng trong trường hợp ấy, mô tả những rào cản chung không thể vượt qua, ngăn cản sự hình thành của hình thái sống có trí thông minh và những nền văn minh ngoài trái đất.”

Lý do hiện diện sự kiện Great Silence thì vô vàn, chính bản thân loài người cũng có khả năng phải đối mặt với sự kiện ấy: Từ những dịch bệnh quét sạch cả một nền văn minh, cho tới việc cả giống loài bị tuyệt chủng vì biến đổi khí hậu. Đó chính là lý do có cách suy nghĩ rằng, để tránh việc bị tuyệt chủng vì những yếu tố trên một hành tinh, cách tốt nhất là tìm những hành tinh mới để định cư. Vậy nên mới có những nỗ lực đưa con người lên Sao Hỏa.

Ở lại trái đất, chọn trái đất làm ngôi nhà duy nhất càng lâu, thì khả năng xảy ra một sự kiện ở tầm cỡ The Great Filter sẽ càng cao.

worldmind.jpg

Quay trở lại với AI và nghiên cứu của Garrett. Ngày hôm nay, AI phổ biến và anh em dùng hàng ngày về cơ bản chưa thể sánh ngang được với trí thông minh của con người. Nhưng theo nhà khoa học này, chúng đã thừa khả năng làm những nhiệm vụ mà trước đó con người không nghĩ rằng máy móc có thể làm được.

Nếu xu hướng phát triển này giúp chúng ta tạo ra những AGI, những trí thông minh nhân tạo phổ quát như ước mơ hiện tại của rất nhiều startup và tập đoàn, chúng ta sẽ có những cỗ máy và thuật toán đủ sức mạnh tư duy lý trí và tổng hợp ý tưởng theo cách não bộ con người đang làm được, kết hợp với sức mạnh tính toán hàng tỷ tỷ phép tính mỗi giây. Khi ấy, theo Garrett, con người có thể gặp rắc rối.

Từ giả thuyết này kéo theo giả thuyết khác, Garrett đi tìm kết luận, rằng sẽ mất bao lâu kể từ khi tạo ra được một AGI cho tới khi AGI không được kiểm soát sẽ xóa sổ cả một nền văn minh? Câu trả lời, theo ông, là từ 100 đến 200 năm, khoảng thời gian rất ngắn nếu so sánh với thời gian phát triển cả một nền văn minh.

Lập trình và phát triển AI là một dự án quy mô hẹp về mặt con người, tận dụng sức mạnh xử lý của máy tính cũng như dữ liệu. Còn muốn khám phá không gian, tìm những ngôi nhà mới cho loài người, cả công sức lẫn kinh phí đều cao hơn gấp bội. Một bằng chứng cho nhận định đó chính là tỷ lệ những nhà khoa học làm việc trong ngành khoa học máy tính nói chung, so với những nhà khoa học còn đang nghiên cứu khoa học tự nhiên phục vụ cuộc sống con người. Rồi đi đâu cũng thấy tham vọng chiếm lĩnh và xây nhà trên Sao Hỏa, bất chấp việc chúng ta vẫn chưa rõ liệu những nhiệm vụ đầu tiên có thành công hay không, hay phóng xạ vũ trụ sẽ khiến không còn phi hành gia nào sống sót.

Quảng cáo



Very-Large-Array-National-Radio-Astronomy-Observatory.webp

Gọi nghiên cứu này gây tranh cãi, đơn giản vì Garrett phụ thuộc gần như hoàn toàn vào những dự đoán mang tính giả thuyết. Dự đoán đầu tiên định hình cả cuộc nghiên cứu, là trong toàn bộ dải ngân hà Milky Way, nền văn minh nào rồi cũng sẽ đến bước phát triển AGI để phục vụ cho cuộc sống và sự phát triển của chủng loài.

Dự đoán kế tiếp là việc ông sử dụng phương trình Drake, vốn chỉ mang giá trị thuần túy giả thuyết, dùng để định lượng số lượng các nền văn minh trên các hành tinh khác, thứ mà con người hoàn toàn không thể biết rõ ràng.

Nhưng có một ý kiến có lý trong nghiên cứu của Garrett, AI cần sự quản lý chặt chẽ và liên tục. Garrett chỉ ra rằng, những đơn vị nằm trên mọi vùng lãnh thổ trên Trái Đất vốn đã đang trong cuộc chạy đua tăng năng suất và hiệu năng của AI, với những lo sợ rằng những quy định quản lý chặt chẽ sau này có thể kìm hãm tốc độ phát triển của AI.

Một cách nghĩ khá sai lầm và tích cực một cách ngây thơ của vài nhà tương lai học, đó là con người có thể lật ngược lý trí của AGI bằng cách phát triển một trí thông minh nhân tạo tốt hơn về mặt nhân cách, mạnh hơn, nhanh hơn để kiểm soát AGI “ác” kia. Lập luận này hoàn toàn vô nghĩa.

Trong mô hình dự đoán của Garrett, một nền văn minh chỉ có vài trăm năm tồn tại trước khi kỷ nguyên AI xóa sổ hoàn toàn nền văn minh ấy. Xét về khoảng thời gian vũ trụ tồn tại, vài trăm năm chỉ là một chấm rất nhỏ, một hệ quy chiếu không đáng kể, không có ý nghĩa: “Nếu không có những quy định kiểm soát chặt chẽ và thực tế, luôn luôn có lý do để tin rằng AI có khả năng trở thành một hiểm họa lớn cho tương lai, không chỉ đối với nền văn minh công nghệ của loài người, mà với toàn bộ mọi nền văn minh khác, nếu có.”

Quảng cáo

47 bình luận
Chia sẻ

Xu hướng

Sẽ sớm thôi! Nếu ko quản lý tốt, các hệ thống tự hành đã có và sẽ sớm tham chiến. 🙂
@SagaKiller Cách đây vài ngày bên Mỹ đã thử nghiệm máy bay tự chiến rồi. Con người quá yếu đuối với chúng.
@Dr.Son nhiều công nghệ AI ẩn tích hợp vào quân sự rồi nhé, sau chiến tranh AI nó diệt chủng 90% con người còn kịp, nước nào mạnh nước đó ăn. AI thì nó làm gì có nhân đạo sai làm gì nó làm thôi
@Chiplovevn Ai chả biết AI đã được quân sự hóa. Chả nước nào ngu mà ko quan tâm đến việc tích hợp AI và quân sự.
Nhưng điều đó ko có nghĩa ổng đúng. 200 năm nữa bị AI tiêu diệu toàn bộ.
Nếu dùng từ KHẢ NĂNG như ổng thì cũng có khả năng 10 năm nữa AI sẽ biến con người thành nô nệ. 20 năm sau con người sẽ có khả năng tuyệt chủng
Nói như ko nói =))
@Dr.Son 15 năm nữa thôi AI diệt chủng con người luôn, chiếc hộp panaroma đã mở. Nhiều nước áp dụng AI vào những việc rất kinh khủng, ông ở Deep web mới biết bí mật, có những cái rất vô nhân tính
200 năm thì lâu quá. Chắc tầm 100 năm thôi nếu không kiềm chế
DKez
TÍCH CỰC
19 ngày
@Nguyennguyen0127 đúng r, 100 năm nữa chắc gì loài người còn như bây giờ
Nói về 200 năm nữa thì nói cái đếch gì chả được mà phải đăng lên mạng. Hoặc có thể đăng phát biểu của một ông ăn xin ở Ấn Độ cho nó khách quan
Chính xác là loài người hại nhau thôi
ko lâu đến vậy đâu. khi AI có nhận thức thì loài người kết thúc trg 30s.
@tourist123 Thích chữ nhận thức.
Mộc9
ĐẠI BÀNG
một tháng
T sợ sớm hơn.
tool
ĐẠI BÀNG
một tháng
Thật ra cái nghiên cứu này là do AI làm để đánh lừa con người thôi, 02 năm nữa nhiều khả năng là AI nó xử lý xong rồi 😁
Nghịch lý Fermi cho thấy quan niệm vũ trụ là vô hạn. Trong khi đó hiện nay người ta cho là vũ trụ có giới hạn, nên có cái gọi là "rìa vũ trụ", "vũ trụ giãn nở", " vụ nổ Big Bang"(làm gì có cái vụ nổ không giới hạn để tạo ra cái không giới hạn).
Còn về phần nói 200 năm nữa AI có thể tiêu diệt loài người thì là chuyện hài. Có ai cho rằng 200 năm nữa loài người buộc phải đoàn kết nhau để chống AI không? Mỹ, Nga, Trung, Bắc Hàn, Iran, Israel...cùng chỉa tên lửa về AI. Kkk.
Skynet
Cần gì 200 năm. Giờ đã thấy phát triển chóng mặt. Hacker hack ầm ầm một phần do AI hỗ trợ phát triển tool tối ưu quá
199 năm nữa có đc ko? @@
Mấy người còn sống được tầm 20-30n nữa kiểu "200, lâu vậy, nhanh hơn được không?" =)))
2 năm là quá đủ để nó tiêu diệt cả hệ mặt trời luôn rồi🤣🤣🤣🤣
Loài người lâu nay thống trị trái đất, cũng đã đến lúc phải cạnh tranh với giống loài khác mới phát triển hơn được. Con người sẽ không thua AI về lâu dài, và sẽ tự tiến hoá lên dạng khác để vượt trội hơn thôi
Nếu 200 năm nữa AI tiêu diệt loài người thì 400 năm nữa người Tam Thể sẽ phải đối mặt với AI
Vanga nói đúng. Ko ai nhét chữ vào mồm vanga cả
T cũng đã nghiên cứu chỉ 100 năm thôi chứ éo đến 200 năm
Chúng m chống mắt lên mà xem , cố sống mà xem
chúng ta chỉ hơn cái máy chổ có tình cảm và suy luận ,còn những cái khác thua hoàn toàn ,nhất là suy luận logic và hành động ,ta chắc chắn chậm hơn 1 cái máy

Xu hướng

Bài mới









  • Chịu trách nhiệm nội dung: Trần Mạnh Hiệp
  • © 2024 Công ty Cổ phần MXH Tinh Tế
  • Địa chỉ: Số 70 Bà Huyện Thanh Quan, P. Võ Thị Sáu, Quận 3, TPHCM
  • Số điện thoại: 02822460095
  • MST: 0313255119
  • Giấy phép thiết lập MXH số 11/GP-BTTTT, Ký ngày: 08/01/2019