Nhìn kỹ vào chiếc hộp đen của trí tuệ nhân tạo

Frozen Cat
9/6/2023 11:39Phản hồi: 38
Nhìn kỹ vào chiếc hộp đen của trí tuệ nhân tạo
Năm năm trước, nhà khoa học máy tính Alan Fern và các đồng nghiệp của ông tại Đại học bang Oregon, thuộc thành phố nhỏ Corvallis, đã bắt đầu tìm câu trả lời cho một trong những câu hỏi cấp bách nhất về trí tuệ nhân tạo (AI): Liệu họ có thể hiểu được cách AI suy luận, đưa ra quyết định và lựa chọn hành động của mình hay không?

Con người không giải mã được hướng đi của vài trò chơi có từ năm 1980

Tất nhiên chúng ta có thể đưa ra ngay câu trả lời theo cảm tính: Đó là AI không thể hiểu, không thể ra quyết định và lựa chọn hành động vì AI không phải là người, cũng không đạt được tầm mức như các loài động vật được coi là thông minh nhất. Nhưng ở đây cách tiếp cận của Fern đi theo hướng khác.
Cơ sở chứng minh cho cuộc khám phá của họ là năm trò chơi arcade cổ điển (trò chơi trên máy bỏ tiền xu ở các trung tâm thương mại), vào khoảng năm 1980, bao gồm Pong và Space Invaders. Người chơi là một chương trình máy tính không tuân theo các quy tắc định sẵn mà nó học hỏi bằng cách thử và sai, chơi đi chơi lại các trò chơi đó để phát triển các quy tắc nội bộ để giành chiến thắng, dựa trên những sai lầm trong quá khứ của nó. Các quy tắc này, bởi vì chúng được tạo ra bởi thuật toán, có thể đi ngược lại với trực giác của con người và khó lòng giải mã, nếu không muốn nói là không thể.
Thoạt đầu, Fern và các đồng sự của ông rất lạc quan. Họ đã phát triển các phương pháp để hiểu xem là sự chú ý về mặt hình ảnh của AI đặt trọng tâm vào đâu khi đang chơi trò chơi. Nhưng họ thấy mình gần như không thể tự tin giải mã các chiến lược chiến thắng của nó.
Nhóm của Fern là một trong 11 nhóm đã tham gia dự án có tên AI Giải thích được (Explainable AI), hay XAI, được tài trợ bởi Cơ quan chỉ đạo các Dự án Nghiên cứu Quốc phòng Tiên tiến (DARPA), là bộ phận nghiên cứu và phát triển của Bộ Quốc phòng Hoa Kỳ. Chương trình này, mà đã kết thúc vào năm 2021, phần lớn được thúc đẩy bởi các ứng dụng trong quân sự. Về nguyên tắc, kết quả nghiên cứu sẽ giúp các thành viên của quân đội hiểu, quản lý một cách hiệu quả, gỡ lỗi (debug) và quan trọng là tin tưởng vào một “thế hệ đối tác máy móc trí tuệ nhân tạo mới nổi”, theo sứ mệnh họ đã nêu.
Nhưng các hàm ý của XAI lại vượt xa giới hạn quân sự. Mấy nhà nghiên cứu lo lắng rằng sự thiếu hiểu biết về các hệ thống AI và cách chúng đưa ra quyết định sẽ làm xói mòn niềm tin của tất cả mọi kiểu người dùng. Điều đó có thể không thành vấn đề khi chơi trò chơi điện tử hay biết cách Uber chỉ định tài xế của mình. Ông Fern nói: “Trong phần lớn thời gian, hầu hết mọi người đều không hiểu chút gì về hoạt động bên trong của phần cứng và phần mềm mà họ sử dụng," Ông Fern nhận xét. “Nó đơn giản là ma thuật thôi.”
Nhưng nó lại rất thành vấn đề khi xét tới nhiều lĩnh vực hệ trọng hơn và sự thiếu hiểu biết có thể hạn chế tiện ích của AI—dù là đưa ra quyết định trên chiến trường hay trong bệnh viện. Nó cũng có thể thành vấn đề trong trường hợp các ứng dụng AI tạo sinh ngày càng nổi bật như ChatGPT và GPT-4, có thể tạo ra các bản sao ấn tượng của ngôn ngữ con người—và thậm chí cả dòng mã máy tính—nhưng cũng có thể tạo ra sự sai lệch hoặc sai sót trong suy luận. Luyao Yuan, một nhà khoa học máy tính tại Meta, thành phố New York, người đã làm việc với một nhóm khác trong dự án XAI của DARPA cho biết: “Chỉ khi quá trình ra quyết định minh bạch với người dùng [thì] người dùng mới tin tưởng hoặc dựa vào hệ thống, ngay cả khi hệ thống đó thực sự tốt”.
Matt Turek, một nhà khoa học máy tính của DARPA, người đã giúp điều hành dự án, cho biết kết quả từ chương trình XAI cho thấy có thể không bao giờ có giải pháp chung cho tất cả mọi người để hiểu về AI. Nhưng với việc AI thâm nhập vào gần như mọi khía cạnh trong cuộc sống của chúng ta, thì một số người cho rằng nhiệm vụ mở hộp đen của AI chưa bao giờ hệ trọng hơn thế.


Những con số ẩn giấu

Thuật ngữ “trí tuệ nhân tạo” nhìn chung dùng để nói tới các chương trình máy tính mà chúng xử trí các vấn đề thường do con người giải quyết. Không phải mọi thuật toán như vậy đều phức tạp và mù mờ. Ví dụ, một nhóm các thuật toán được gọi là cây quyết định tuân theo một tập hợp các bài kiểm tra nghiêm ngặt (chẳng hạn, câu hỏi có/không hoặc câu hỏi đúng/sai) để phân loại thông tin và quy trình lập luận của nó là minh bạch. Một người dùng có thể thấy bằng cứ rõ rệt theo từng bước và kết quả có tính xác quyết.

1561151126674.png
Một thuật toán cây quyết định để xác định loại trái cây. Ở mỗi nút là bài kiểm tra chặt chẽ về màu sắc, kích thước, hình dáng và chỉ có tối đa ba lựa chọn. Nó rất xác quyết: một loại quả nếu màu đỏ thì nó luôn đỏ, không thể vừa đỏ vừa xanh; hoặc đã có kích thước lớn thì luôn lớn, không thể vừa lớn vừa nhỏ, v.v... Quy trình ra quyết định này minh bạch trên từng nút và kết quả rất chính xác. Ảnh: LinkedIn.

Nhưng trong khoảng một thập kỷ qua, sự quan tâm đã bùng nổ đối với các phương pháp AI tinh vi hơn được gọi là mạng lưới thần kinh sâu (deep neural networks) bao gồm các nút tính toán. Các nút được sắp xếp theo nhiều lớp (layer), với một hay nhiều lớp được đặt xen giữa đầu vào và đầu ra. Việc huấn luyện các mạng lưới này—một quá trình được gọi là học sâu—liên quan đến việc điều chỉnh lặp đi lặp lại các trọng số hoặc cường độ của các kết nối giữa các nút, cho đến khi mạng lưới tạo được đầu ra chính xác có thể chấp nhận được cho một đầu vào nhất định.
Nhìn ngay lại sơ đồ cây, nó cũng có các nút tính toán, ra quyết định xen giữa đầu vào và đầu ra. Nhưng nó quá sơ khai khi mà chỉ có 2 hay 3, 4 lựa chọn, và nếu một điều gì đó thực sự đã xảy ra trên nút thì nó có trọng số 100% (yes hay đúng), còn cái không xảy ra đương nhiên là 0% (no hay sai). Còn ở đây là rất nhiều lựa chọn, rất nhiều trọng số, tức là mỗi kết nối giữa các nút có độ mạnh yếu khác nhau. Giống như liên kết giữa các tế bào thần kinh, nên ta gọi là mạng thần kinh, trong khi sơ đồ cây chưa đủ phức tạp để gọi là mạng thần kinh.
Điều này cũng làm cho các mạng lưới sâu trở nên mù mờ. Ví dụ: bất cứ điều gì mà ChatGPT đã học được đều được mã hóa thành hàng…trăm tỷ trọng số bên trong và không thể nào hiểu được việc ra quyết định của AI chỉ bằng cách kiểm tra các trọng số đó.
25366Convolutional_Neural_Network_to_identify_the_image_of_a_bird.png
Một mạng lưới thần kinh sâu để xác định hình ảnh đầu vào có phải là hình con chim hay không, có nhiều lớp và trong các lớp này chứa nhiều nút. Ở từng nút có rất nhiều lựa chọn với tầm quan trọng (trọng số) khác nhau, chưa kể khác với cây quyết định, các đường đi còn chồng chéo lên nhau thay vì tách bạch nhau (cũng ở nút đó, với lựa chọn đó, sẽ dẫn đến cùng một nút tương ứng với lựa chọn từ nút khác). Ảnh: Analytics Vidhya.

Tuy vậy, các mạng nơ-ron sâu đã thúc đẩy nhiều tiến bộ mới nhất trong lĩnh vực AI, từ việc giúp các bác sĩ chẩn đoán bệnh đến tạo ra những hình ảnh gốc theo phong cách của một nghệ sĩ được ưa thích, tới việc sáng tác văn xuôi giống con người và cho phép phát triển các phương tiện tự động.
Việc hiểu biết các mạng này đã trở nên quan trọng. Ví dụ: các nhà nghiên cứu đã thử nghiệm những hệ thống AI như vậy với các bác sĩ lâm sàng trong các lĩnh vực trải dài từ cấp cứu theo tình trạng nặng nhẹ, nơi bác sĩ có thể phân tầng bệnh nhân chuyển đến theo mức độ nhanh chóng mà họ cần được chăm sóc, cho đến phân tích ảnh chụp cắt lớp vi tính (CT) để chẩn đoán mức độ nghiêm trọng của các ca mắc COVID-19. Nếu mọi người không hiểu hệ thống AI, họ có thể không sử dụng nó một cách hiệu quả—hoặc không tin tưởng nó. Ông Turek nói: “Những lời giải thích quả thực dẫn đến sự tin tưởng."

Soi xét bên trong bộ máy của AI

Để đạt được mục tiêu này, DARPA đã khởi động chương trình XAI vào năm 2015, do nhà khoa học máy tính của DARPA là David Gunning đứng đầu. (Turek đã tiếp quản chương trình vào năm 2018.) Nó được thúc đẩy một phần bởi những tiến bộ trong khả năng của các mạng lưới sâu, chẳng hạn như phân loại chính xác hình ảnh. Các nhà nghiên cứu đã nhận ra tiềm năng phi thường của các hệ thống này, nhưng ngày càng lo ngại về độ mù mờ giống như hộp đen của chúng. Một số AI cũng có kết quả đầu ra đáng lo ngại cần được giải thích—chẳng hạn như xu hướng khuếch đại thành kiến về chủng tộc hoặc các thành kiến khác tiềm ẩn trong tập dữ liệu đào tạo của chúng.

Quảng cáo


Gunning và Turek dự đoán rằng kết quả của họ sẽ rơi vào một trong ba loại. Đầu tiên sẽ bao gồm các loại mô hình AI mới “có thể diễn giải được" mà các chuyên gia trong lĩnh vực này có thể hiểu được, giống như cơ học là nhìn vào hoạt động bên trong của động cơ, để theo dõi quá trình “suy luận” của máy móc. Lớp thứ hai sẽ bao gồm các mô hình không chỉ đưa ra các dự đoán mà còn đưa ra các giải thích mà người dùng là con người có thể hiểu được. Cách tiếp cận thứ ba ít trực tiếp hơn: Thay vì thăm dò trực tiếp hộp đen, mô hình sẽ tạo ra một “hộp trắng” làm đại diện—một mô hình có thể giải thích được mà nó bắt chước các đầu vào và đầu ra của bản gốc.
AI trò chơi điện tử arcade của nhóm Fern rơi vào loại thứ hai. Họ tiếp cận vấn đề bằng cách tăng cường cho thuật toán của mình bằng dòng mã để hiển thị xem chỗ nào, trên màn hình, mà AI tập trung sự chú ý của nó khi nó hành động và phần nào trong mạng nội bộ của nó đang hoạt động. Nhưng kết quả lại chẳng đi tới đâu đến phát điên. Trong một số trò chơi, thuật toán dường như quyết định dựa trên một số sự kiện trên màn hình, nhưng không phải ở những trò chơi khác. Ngoài ra, mối tương quan quan sát được giữa các quyết định của thuật toán và khuôn mẫu trong hoạt động nội bộ của nó lại không nhất quán, vì vậy Fern cảm thấy vẫn còn một lỗ hổng lớn trong hiểu biết của họ về hệ thống. Fern nói: “Cho dù chúng tôi đã cố gắng thế nào, chúng tôi chưa bao giờ thực sự tìm thấy sự tương ứng một-một."
Nhà khoa học máy tính kiêm nhà toán học Patrick Shafto tại Đại học Rutgers ở Newark, bang New Jersey, đã dẫn đầu việc phát triển một mô hình thuộc loại thứ ba (dùng hộp trắng thay mặt)—một mô hình có thể phân loại hiệu quả những gì đã xảy ra trong hộp đen, thậm chí không cần vào bên trong—và đã đạt được một số thành công.
Nhóm đã phát triển một phương pháp xác suất để giải thích một mạng lưới thần kinh sâu, mà mạng này có thể nhận biết và chẩn đoán tràn khí màng phổi, còn được gọi là xẹp phổi, trên phim chụp X-quang ngực. Ngoài việc báo cáo xem liệu nó có xác định được tình trạng này hay không, thuật toán còn chọn ra hai hoặc ba hình ảnh từ tập dữ liệu chụp X-quang đào tạo giải thích tốt nhất lý do hình ảnh được phân loại là tràn khí màng phổi hay không. Sau đó, nó chia sẻ những hình ảnh đó với một chuyên gia về phân khoa này—trong trường hợp này là bác sĩ X quang—như một lời giải thích trực quan cho quyết định của nó về hình ảnh mới.
Shafto và nhóm của ông phát hiện ra rằng những chuyên gia nào đã xem mấy hình ảnh mẫu này, sau một chẩn đoán mới, có nhiều khả năng tin tưởng vào hệ thống hơn. Mặc dù vậy, Shafto cho rằng thật chẳng khôn ngoan khi tin tưởng hoàn toàn vào một hệ thống AI trong các lĩnh vực rất hệ trọng như y học. Đồng thời, ông tìm ra cách để các mô hình mới giảm bớt khối lượng công việc của các bác sĩ X quang. Shafto nói: “Tôi nghĩ hứa hẹn thực sự của điều này là phân loại được các trường hợp cấp cứu dễ dàng hoặc không gây tranh cãi."
sensors-23-00634-g001.jpg
Lưu đồ so sánh trực quan giữa AI “hộp đen” với AI có thể giải thích, và cách mà kết quả ảnh hưởng đến người dùng ra sao. Nhánh trên cùng hiển thị quy trình của mô hình hộp đen. Thông thường, nó chỉ cung cấp các kết quả là những phân loại (ví dụ: COVID hoặc không phải COVID). Hai nhánh còn lại (giữa và dưới) đại diện cho hai phương pháp XAI. Cụ thể, mô hình XAI ở giữa biểu thị ví dụ về bản đồ độ nổi bật và mô hình thứ hai (dưới cùng) là phương pháp nguyên mẫu, tức là so sánh với hình chụp thật của bệnh nhân. Ảnh: MDPI

AI tự giải thích được chính mình thì đáng tin hơn

Turek cho hay, các thành viên hàng đầu của cộng đồng AI nghi ngờ rằng những lời giải thích tốt hơn dẫn đến hiệu suất kém hơn, nhưng một số dự án DARPA đã thách thức giả định đó. Trong một số trường hợp, các mô hình được đào tạo để đưa ra lời giải thích đã làm tốt hơn so với các mô hình không thể giải thích được. Turek nói: “Đó là điều chúng tôi không mong đợi và ắt hẳn là không mang tính trực giác ngay từ đầu."
Công việc của nhóm Yuan là một ví dụ. Trước khi gia nhập Meta, Yuan đã làm việc với một nhóm tại Đại học California Los Angeles để phát triển một trò chơi dựa trên AI, tương tự như trò chơi Minesweeper, trong đó một rô-bốt trinh sát tự động định hướng một lối đi an toàn qua một cánh đồng nguy hiểm rải đầy bom. Khi AI đưa ra quyết định, nó sẽ gửi các mô tả bằng ngôn ngữ đơn giản về lý do hành động của nó cho người dùng, người này có thể phản hồi. Chẳng hạn, dựa trên việc người dùng thích tuyến đường nhanh nhất, ngắn nhất hay an toàn nhất, rô-bốt sẽ điều chỉnh lý do và hành vi của nó. Hầu hết các hệ thống AI được xây dựng để đạt được một nhiệm vụ được minh định rõ ràng, Yuan nói, nhưng rô-bốt trinh sát của Yuan có thể chuyển sang một nhiệm vụ mới do tương tác với người dùng. Ông nói: “Mục tiêu có thể thay đổi mọi lúc, nhưng không có cách nào chúng tôi có thể lập trình điều đó vào mô hình."
Screenshot 2023-06-09 160608.jpg
Quân đội là một trong những tổ chức sử dụng trí tuệ nhân tạo để thực hiện các nhiệm vụ công nghệ cao, tính hệ trọng cao và tiềm ẩn nguy hiểm. Hiểu chính xác cách AI đưa ra quyết định có thể giúp người dùng quản lý, gỡ lỗi hiệu quả hơn và quan trọng là tin tưởng các đối tác máy móc của họ. Ảnh: Shutterstock/sibky2016.

Quảng cáo



Ý tưởng cho rằng một hệ thống AI có thể hoạt động tốt hơn nếu nó tự giải thích phù hợp với công trình gần đây của nhà khoa học máy tính Cynthia Rudin từ Đại học Duke, người nói rằng thật là một "huyền thoại" khi mà khả năng diễn giải đòi hỏi phải hy sinh độ chuẩn xác. Trong một công trình gần đây, bà và các đồng nghiệp của mình đã phát triển các hệ thống máy học, có thể diễn giải được, không sử dụng mạng sâu và minh bạch trong sự lập luận của chúng. Đối với các nhiệm vụ liên quan đến tài chính, chăm sóc sức khỏe và dự đoán hoạt động tội phạm, các mô hình đơn giản hơn này hoạt động tốt bằng hoặc tốt hơn các chương trình hộp đen. Bà nói, việc hiểu được khi nào và ở đâu AI phù hợp — và ở đâu thì không — vẫn là một thách thức lớn.
Turek cho biết khả năng giải thích cũng có thể cải thiện lòng tin của người dùng. Khi Yuan và các đồng nghiệp mời các tình nguyện viên chơi game, họ nhận thấy rằng những lời giải thích và yêu cầu hướng dẫn đã làm tăng xếp hạng của người chơi về mức độ tin cậy của họ đối với hệ thống. Turek nói: “Một hệ thống có thể đưa ra lời khuyên được coi là đáng tin cậy hơn đối với người dùng so với một hệ thống không có."

Nhưng không phải lời giải thích nào cũng đáng tin

Tuy nhiên, một thách thức lớn là nắm bắt được mức độ đáng tin cậy và toàn diện của một lời giải thích để sử dụng trong thực tiễn. Sau khi Fern trở nên thất vọng với kết quả không nhất quán từ các AI chơi game arcade của mình, ông đã kiểm tra kỹ lưỡng các nghiên cứu khác tuyên bố đã phá vỡ hộp đen của mạng lưới thần kinh — và tìm thấy những điều mong muốn. Ví dụ: một số nhóm tuyên bố rằng việc kích hoạt các nút tính toán trong mạng thần kinh của họ tương ứng với một số mẩu thông tin nhất định, ngay cả khi sự tương ứng đó chỉ đúng 60% thời gian, Fern nói. “Nhưng nếu tôi đang nói chuyện với bạn và bất cứ khi nào bạn nói 'mèo', và nó chỉ có nghĩa là 'mèo' trong 60% thời gian, thì bạn không phải là người thật đáng tin cậy để nói chuyện."
Chúng ta có thể hình dung ý ông Fern với ví dụ sau: Giả sử bạn đang nói chuyện qua mạng với một người bị khiếm thị (coi như đại diện cho AI) và muốn hỏi xem anh ta đang trông thấy con vật gì trong sân nhà. Người này có thể nhận biết được lờ mờ đâu là con gà. Nhưng vì anh ta không thấy rõ ràng con vật đó và chỉ chạm vào được nó trong 60% thời gian, còn 40% thời gian còn lại không chạm vào được, mặc dù lúc nào anh ấy cũng khăng khăng đó là con gà. Như vậy người khiếm thị đó không quá đáng tin khi bạn muốn xác định con vật nào đang ở trong vườn, với AI cũng y như vậy.
Trong một cuộc nói chuyện năm 2019 có tiêu đề “Đừng để bị lừa bởi những lời giải thích”, ông bày tỏ sự hoài nghi về các kết quả đã xuất bản tuyên bố sẽ “giải thích” cách AI hoạt động trong việc nhận dạng hình ảnh. “Ở một mức độ nào đó, cái mớ này giống như đọc lá trà hay thầy bói xem voi,” Fern nói. Rudin, tại trường Duke, chỉ ra rằng nếu một lời giải thích sai dù chỉ 10% thì có lẽ nó không đáng tin cậy. Bà nói: “Tệ hơn nữa, 10% đó có lẽ là 10% dữ liệu khó phân loại và quan trọng nhất."
sensors-23-00634-g002.jpg
Số lượng ấn phẩm về XAI được thêm vào mỗi năm từ 1976 đến 2021. Trục ngang biểu thị năm xuất bản và trục đứng thể hiện số lượng ấn phẩm được thêm vào trong một năm nhất định. Ảnh: MDPI

Fern nói, những nỗ lực xây dựng AI có thể diễn giải và có thể giải thích được có một mục đích quan trọng, ngay cả khi đó không phải là thứ mà các nhà nghiên cứu đã hình dung ban đầu. Ông nghĩ rằng việc tạo ra các lời giải thích sẽ hữu ích trong việc gỡ lỗi hệ thống—ví dụ: nếu hệ thống AI của xe cộ có thể giải thích cách nó nhầm một chiếc xe tải với một cái cây hoặc tại sao nó lại nghĩ rằng nhiễm trùng phổi là một khối u khi chụp CT, thì các lập trình viên có thể gỡ lỗi được thuật toán. “Nếu một lời giải thích có vẻ sai, thì nó có thể chỉ ra một vấn đề trong hệ thống,” Fern nói.
Hơn nữa, thật không thực tế khi mong đợi mọi thuật toán có thể tự giải thích chính nó theo cùng một cách, Fern cho biết thêm. Ông nói: “Nhận được thứ gì đó mà con người có thể hiểu được (lời giải thích) cho rất nhiều vấn đề thực sự khó khăn mà mạng lưới thần kinh đang giải quyết là điều không thể." Thêm vào đó, nghiên cứu về XAI, bao gồm cả những phát hiện bởi nhóm riêng của ông Fern, đã tiết lộ rằng khái niệm về khả năng giải thích rất khó nắm bắt. Ông lưu ý: “Con người thậm chí không biết mọi thứ góp phần vào quá trình ra quyết định của chính chúng ta." Tức ý ông bảo con người còn như vậy thì chính AI cũng không “hiểu biết” được mọi thứ liên quan đến quá trình ra quyết định của nó. Tuy nhiên, Fern nói ông tin rằng có thể phát triển sự hiểu biết tốt hơn về cách các hệ thống này hoạt động với những tiến bộ hơn nữa ở cả lĩnh vực máy tính lẫn khoa học nhận thức.
Quả thật là khi các ứng dụng trong thế giới thực ngày càng phụ thuộc vào các quyết định của hệ thống AI, kiến thức về cách hoạt động của quy trình ra quyết định sẽ rất quan trọng trong việc xây dựng lòng tin và tránh gây hại. “Những gì chúng tôi muốn,” Shafto nói, “là những kết quả tốt hơn.”

Trích từ báo cáo của Stephen Ornes, PNAS
38 bình luận
Chia sẻ

Xu hướng

5 sao
@Tú Bán Sách Em cám ơn anh Tú bán sách nè. 😁
@Tú Bán Sách 1 sao, bạn @Frozen Cat chịu khó tìm thêm 4 người, mỗi người cho 1 sao nữa là thành 5 sao he
Cười mặt nồi
@mig29f Cũng được á, ý tưởng wá sáng tạo.😁
6 sao
@Taliban2023 Có 6 sao nữa hả ta, chắc AI mới thêm vào wá.😂
AI ngày càng phức tạp càng thông minh thì càng khó đoán
@NghiepTranVINA Rút phích cắm không kịp cũng dễ vỡ kế hoạch lém á, phải canh chính xác lắm anh ui. Thôi khỏi rút hihi. 😁
@Frozen Cat Sợ vỡ kế hoạch thì bọc dù nha em 😉😉😉
@NghiepTranVINA Oke anh, vậy mà hok nghĩ ra được. 😂
@Frozen Cat Hứng quá khó suy nghĩ gì lắm, anh cũng vậy mà 🤣🤣
Cười vô mặt
5 sao
Hun cái nè
@zombie01 Cám ơn bạn zombie01 nè. 😁
nói túm lại : -đời đầu nó chỉ biết đúng -sai ,yes-no ,logic
- đời sau : chọn giải pháp tối ưu khi có nhiều giả định và góc nhìn khác nhau
- hậu đời sau :tự đưa ra nhiều giải pháp nhờ "kinh nghiệm" "nhờ dạy dỗ" ,và chọn giải pháp tối ưu
@anhcom67 Cảm ơn tóm tắt của bạn nè.😁
@anhcom67 Đời đầu: Anh hùng xạ điêu.
Đời sau: Tiếu ngạo giang hồ.
Hậu đời sau: Lộc đỉnh ký.
Hehe…
@schtroumf Hậu đời sau nữa: Ngọa hổ tàng long. 🤣
Tóm tắt:
AI là thứ chưa thấy đạt mức tương quan 1:1 về chính xác.
AI cho kq kèm sub sẽ dễ được tin hơn là chỉ có hình
@T.NC Cám ơn bạn đã tóm tắt rất súc tích, ngắn gọn nè 😁.
welcomyou
ĐẠI BÀNG
4 tháng
XAI bây giờ là một hướng đi mới, hầu như các trường ĐH về CNTT ở VN đều bắt đầu giảng dạy phần này
@welcomyou Cám ơn bạn đã bổ sung thông tin, mình mới biết luôn ấy. 😅 Giờ mọi thứ đi như vũ bão phải cập nhật môn học liên tục chứ không là lạc hậu mất.
Hanhsisken
ĐẠI BÀNG
3 tháng
có thể AI mang bản sắc của người tạo ra nó.
@Hanhsisken Có thể lắm đó pạn. 😁
Puchin hỏi AI để bấm nút Hạt me , AI mà trả lời sai là loài người cũng biến mất luôn, có nên tin AI không ?nguy hiểm quá
Giận
@TsanHoang Không đến nỗi như vậy đâu pạn, hoặc là vài trăm năm nữa. 😁
Đọc rối não quá, thôi cho 1⭐️
@lightingbolt Rối não ăn cháo bổ não rồi đọc tiếp bác sĩ Lighting Bolt ui. 🤣😁
lazy0338
ĐẠI BÀNG
3 tháng
bài viết chia sẻ hay
@lazy0338 Cám ơn bạn nè.

Xu hướng

Bài mới









  • Chịu trách nhiệm nội dung: Trần Mạnh Hiệp
  • © 2023 Công ty Cổ phần MXH Tinh Tế
  • Địa chỉ: Số 70 Bà Huyện Thanh Quan, P. Võ Thị Sáu, Quận 3, TPHCM
  • Số điện thoại: 02822460095
  • MST: 0313255119
  • Giấy phép thiết lập MXH số 11/GP-BTTTT, Ký ngày: 08/01/2019