Không chỉ đơn thuần là một trong những nhà nghiên cứu AI hàng đầu, mà thực tế tiến sĩ Geoffrey Hinton còn được mệnh danh là “người cha đỡ đầu” của ngành nghiên cứu trí thông minh nhân tạo. Năm 2012, tiến sĩ Hinton cùng hai nghiên cứu sinh ở đại học Toronto đã tạo ra công nghệ cho phép những thuật toán deep learning và neural network “học” kiến thức của thế giới bằng cách phân tích hàng nghìn hình ảnh, để máy móc hiểu như thế nào là bông hoa, trái táo, ô tô,… với mức độ chính xác đáng kinh ngạc.
Chính công nghệ nhận diện hình ảnh này đã trở thành nền tảng cơ bản để các đơn vị và tập đoàn bây giờ nghiên cứu ra những AI được coi là sẽ định hình tương lai của ngành công nghệ.
Nhưng rồi ngày 1/5/2023, tiến sĩ Hinton tuyên bố nghỉ việc ở Google, nơi ông đã góp sức trong hơn một thập kỷ nghiên cứu những công nghệ mới giúp trí thông minh nhân tạo có được ngày hôm nay. Ông nói lý do nghỉ việc là vì chỉ có rời khỏi vị trí đang đảm nhiệm, ông mới có thể nói một cách tự do về những hiểm họa mà AI có thể đem tới cho xã hội. Thêm nữa, vị tiến sĩ này khẳng định, một phần trong ông giờ cảm thấy hối hận vì những thành tựu đã làm được: “Tôi tự an ủi bản thân bằng cách nghĩ rằng nếu không phải mình, thì chắc chắn sẽ có người khác tạo ra được những thứ y hệt.”
Từ việc là một trong những người đi đầu ngành AI, trở thành một người liên tục bày tỏ những lo ngại về tác động tiêu cực của trí thông minh nhân tạo, đây rõ ràng là một cột mốc rất đáng chú ý của ngành, giữa thời điểm AI đang tạo ra những bước ngoặt đáng chú ý nhất đối với ngành công nghệ trong hàng thập kỷ qua.
Chính công nghệ nhận diện hình ảnh này đã trở thành nền tảng cơ bản để các đơn vị và tập đoàn bây giờ nghiên cứu ra những AI được coi là sẽ định hình tương lai của ngành công nghệ.
Nhưng rồi ngày 1/5/2023, tiến sĩ Hinton tuyên bố nghỉ việc ở Google, nơi ông đã góp sức trong hơn một thập kỷ nghiên cứu những công nghệ mới giúp trí thông minh nhân tạo có được ngày hôm nay. Ông nói lý do nghỉ việc là vì chỉ có rời khỏi vị trí đang đảm nhiệm, ông mới có thể nói một cách tự do về những hiểm họa mà AI có thể đem tới cho xã hội. Thêm nữa, vị tiến sĩ này khẳng định, một phần trong ông giờ cảm thấy hối hận vì những thành tựu đã làm được: “Tôi tự an ủi bản thân bằng cách nghĩ rằng nếu không phải mình, thì chắc chắn sẽ có người khác tạo ra được những thứ y hệt.”

Từ việc là một trong những người đi đầu ngành AI, trở thành một người liên tục bày tỏ những lo ngại về tác động tiêu cực của trí thông minh nhân tạo, đây rõ ràng là một cột mốc rất đáng chú ý của ngành, giữa thời điểm AI đang tạo ra những bước ngoặt đáng chú ý nhất đối với ngành công nghệ trong hàng thập kỷ qua.
Tầm quan trọng của AI, nói theo lời những nhà phân tích hay những đơn vị dẫn đầu ngành công nghệ, có thể ngang ngửa với sự hiện diện của trình duyệt internet những năm đầu thập niên 1990. Nếu trình duyệt đưa internet đến với hàng tỷ người, kết nối họ lại với nhau, thì AI có thể tạo ra được những đột phá trong nghiên cứu y khoa, dược hay giáo dục.
Nhưng giữa bước chuyển mà chúng ta đang chứng kiến, là những giọng nói bày tỏ lo ngại về việc đưa ra một công cụ có phần nguy hiểm, con người chưa biết cách quản lý hiệu quả đến với công chúng. Ngay bây giờ những AI tạo nội dung đã bị lạm dụng làm công cụ truyền bá thông tin sai lệch. Dần dần, chúng sẽ là thứ đe dọa việc làm của nhiều người. Thậm chí có những người nhìn xa hơn và lên tiếng khẳng định, AI là hiểm họa của nhân loại.
Tiến sĩ Hinton thì nhận định gần gũi hơn: “Rất khó để tìm ra cách chống và ngăn chặn những kẻ lợi dụng công nghệ này vào những mục đích xấu.”

Ngay sau khi OpenAI ra mắt phiên bản mới của ChatGPT hồi tháng 3, hơn 1000 nhà nghiên cứu và những tỷ phú công nghệ, trong đó có cả Elon Musk đã ký tên vào một bức thư kêu gọi ngừng phát triển những hệ thống trí thông minh nhân tạo với tham số quá lớn trong vòng 6 tháng, vì những công nghệ ấy tạo ra “nguy cơ khủng khiếp đối với xã hội và nhân loại.”
Vài ngày sau, 19 nhà lãnh đạo thuộc hiệp hội tiến bộ của trí thông minh nhân tạo, một nhóm học thuật đã tồn tại 40 năm, cũng gửi một bức thư cảnh báo về nguy cơ của AI. Trong số 19 cá nhân ấy có cả giám đốc khoa học của Microsoft, Eric Horwitz. Ngược đời là, chính tập đoàn ông Horwitz đang phục vụ đã ứng dụng công nghệ của OpenAI trong nhiều dịch vụ trực tuyến mới, bao gồm cả công cụ tìm kiếm Bing.
Còn “cha đỡ đầu của công nghệ AI” thì không góp mặt trong bất kỳ bức thư nào nói trên. Lý do được ông đưa ra là trước khi nghỉ việc ở Google, ông không muốn nói xấu công ty mình đang làm việc. Tháng trước, tiến sĩ Hinton thông báo với Alphabet về việc ông từ chức. Đến thứ 5 tuần vừa rồi, ông gọi điện cho CEO Sundar Pichai, nhưng chi tiết cuộc gọi không được tiết lộ.
Tua nhanh cuộc đời của tiến sĩ Hinton. Một người Anh sống và làm việc tại Mỹ, ông là một khoa học gia lâu năm, làm việc với tham vọng và tầm nhìn về khả năng của trí thông minh nhân tạo. Năm 1972, sau khi tốt nghiệp đại học Edinburgh, ông bắt đầu hình thành và phát triển một ý tưởng gọi là neural network, một hệ thống toán học với khả năng học những kỹ năng mới nhờ phân tích dữ liệu. Ở thời điểm mà công nghệ pin lithium-ion, xương sống của ngành thiết bị công nghệ hiện giờ, còn mới ở thuở sơ khai, thì có rất ít người biết, nghiên cứu và tin vào ý tưởng neural network.
Quảng cáo
Và rồi nó trở thành thành tựu cả đời của tiến sĩ Hinton.

Đến thập niên 1980, tiến sĩ Hinton trở thành giáo sư khoa học máy tính đại học Carnegie Mellon, nhưng nghỉ việc để sang Canada dạy học, vì ông không muốn nhận khoản tiền Lầu Năm Góc gửi để hỗ trợ nghiên cứu AI. Thời điểm ấy hầu hết mọi nghiên cứu về trí thông minh nhân tạo đều được Bộ Quốc phòng Mỹ cấp vốn. Ông luôn phản đối việc ứng dụng AI trên chiến trường, và gọi việc đó là “cho lính robot ra trận.”
Rồi đến năm 2012, tiến sĩ Hinton cùng hai nghiên cứu sinh đại học Toronto, Ilya Sutskever và Alex Krishevsky, tạo ra được một neural network có thể phân tích hàng nghìn bức ảnh để tự học về những vật thể phổ biến ngoài đời. Công ty được ông Hinton và hai nghiên cứu sinh này thành lập sau đó được Google mua lại với giá 44 triệu USD. Công nghệ mà ba người tạo ra trở thành nền tảng để bây giờ chúng ta có ChatGPT, Google Bard, Midjourney hay Stable Diffusion.
Ilya Sutskever về sau chính là trưởng bộ phận nghiên cứu của OpenAI.
Năm 2018, tiến sĩ Hinton cùng hai người cộng tác lâu năm nhận giải thưởng Turing, thứ được coi là giải Nobel của ngành khoa học máy tính.
Quảng cáo
Cùng thời điểm 2018, Google, OpenAI cùng nhiều đơn vị khác bắt đầu chạy đua xây dựng những neural network với khả năng học từ một khối lượng dữ liệu văn bản khổng lồ trên mạng internet. Khi ấy theo tiến sĩ Hinton, đó là cách tuyệt vời để máy móc học và tạo ra ngôn ngữ, nhưng vẫn thua kém cách bộ não con người xử lý ngôn ngữ.

Nhưng rồi khi Google và OpenAI tạo ra những hệ thống có thể xử lý lượng dữ liệu lớn hơn nhiều so với hai năm trước đó, cách nhìn của ông thay đổi. Ông vẫn tin vào việc hệ thống kém hơn bộ não con người ở vài khía cạnh, nhưng ở những khía cạnh khác, AI đã vượt qua trí tuệ con người. Thời điểm những tập đoàn công nghệ có những cải tiến về hệ thống AI, tiến sĩ Hinton bắt đầu tin rằng trí thông minh nhân tạo đang trở nên càng lúc càng nguy hiểm. Ông nói: “Hãy nhìn vào những gì diễn ra 5 năm về trước và những gì đang xảy ra đi. Hãy so sánh khác biệt và dự đoán tương lai nhờ vào chênh lệch công nghệ. Điều đó khá đáng sợ.”
Đọc thêm: https://tinhte.vn/thread/nhan-vien-google-trao-doi-noi-bo-ai-bard-vua-vo-dung-vua-vo-dao-duc.3660608/

Nhân viên Google trao đổi nội bộ: AI Bard vừa "vô dụng" vừa "vô đạo đức"
Đối với những người dùng Google, chatbot Bard giống như một sản phẩm được ra mắt một cách vội vàng để Google có thứ cạnh tranh với ChatGPT đã được tích hợp vào Bing của Microsoft.
Một bài viết mới trên Bloomberg…
tinhte.vn
Cho tới năm 2022, tiến sĩ Hinton vẫn tin rằng Google là một “trọng tài công bằng” trong việc giữ công nghệ AI phát triển một cách an toàn, không cho ra mắt những sản phẩm gây nguy hại cho cộng đồng. Nhưng rồi Microsoft đã có chatbot tích hợp với Bing, đe dọa tới chính mô hình kinh doanh cốt lõi của Google, dẫn tới việc Google cũng phải làm điều tương tự, càng nhanh càng tốt. Theo vị tiến sĩ 75 tuổi, những gã khổng lồ công nghệ giờ đã rơi vào cái bẫy chạy đua và cạnh tranh, không dễ gì thoát ra được.
Đọc thêm: https://tinhte.vn/thread/hinh-anh-giao-hoang-francis-mac-ao-phao-mau-trang-la-do-ai-tao-ra.3649640/

Hình ảnh Giáo hoàng Francis mặc áo phao màu trắng là do AI tạo ra
Hôm qua mình thấy hình ảnh Đức Giáo Hoàng Francis mặc áo phao màu trắng đi trên phố được chia sẻ. Tấm hình này sau đó trở nên viral, được lan truyền dữ dội luôn, và điều khiến nó trở nên nổi tiếng là vì đây là hình do AI tạo ra…
tinhte.vn
Lo ngại lớn nhất của tiến sĩ Hinton là, nhờ AI, rồi mạng internet sẽ tràn ngập những hình ảnh, video và văn bản giả, còn người bình thường thì không thể phân biệt thật giả. Xa hơn, ông đưa ra cảnh báo rằng công nghệ AI có thể tạo ra nguy cơ đối với toàn bộ loài người vì chúng thường học được những cách ứng xử sai lệch của chính con người trong quá trình học từ nguồn dữ liệu khổng lồ trên mạng internet. Khi những AI có thể tự viết code, rồi tự chạy được code, thì tương lai những hệ thống vũ khí tự hành, những robot giết người, theo cách nói của tiến sĩ Hinton, là thứ có thể trở thành hiện thực.
Theo vị tiến sĩ, chỉ có một hy vọng duy nhất, đó là những nhà nghiên cứu, các nhà khoa học và chính phủ, các nhà lập pháp các nước phải hợp tác với nhau để tìm ra những cách kiểm soát hiệu quả công nghệ AI: “Tôi không nghĩ chúng ta nên mở rộng nghiên cứu công nghệ này thêm, cho tới khi chúng ta hiểu rõ liệu có kiểm soát được nó hay không.”
Từng có thời, khi được hỏi làm cách nào mà ông chấp nhận làm việc để phát triển một công nghệ có tiềm năng tạo ra những nguy cơ, tiến sĩ Hinton thường dẫn lại lời của cha đẻ bom nguyên tử, Robert Oppenheimer: “Khi bạn thấy một thứ ngọt ngào về mặt kỹ thuật, bạn sẽ tiếp tục làm.” Nhưng giờ, có lẽ Geoffrey Hinton không nhắc lại câu nói này nữa.
Theo The New York Times