AI có trách nhiệm, thứ ChatGPT chưa bao giờ có, là lý do Google, Microsoft từng hoãn ra mắt chat bot

ndminhduc
8/2/2023 3:25Phản hồi: 60
AI có trách nhiệm, thứ ChatGPT chưa bao giờ có, là lý do Google, Microsoft từng hoãn ra mắt chat bot
Có thể bạn không biết, nhưng ChatGPT chưa bao giờ là một đột phá về mặt công nghệ. Các kỹ sư đầu ngành của Google, Microsoft, Meta… và rất nhiều công ty hàng đầu khác không sai khi cho rằng ChatGPT chẳng có gì mới về mặt kỹ thuật. Không thể phủ nhận thành thành quả, công sức của ChatGPT cũng tính ứng dụng của nó nhưng thứ đột phá thật sự của ChatGPT chính là giúp thế giới biết nhiều hơn về chat bot, về trí tuệ nhân tạo trong ứng dụng cuộc sống.

Vậy đã bao giờ bạn tự hỏi, nếu các ông lớn “chê” ChatGPT như vậy thì tại sao họ không làm trước đi? Sao không ra mắt sản phẩm mà để đối thủ tung ra rồi mới chê? Đó là vì một thuật ngữ tưởng chừng như mới mà không mới: AI có trách nhiệm (Responsible AI). Không khó để đưa một sản phẩm thử nghiệm ra thị trường, nhưng ai sẽ chịu trách nhiệm nếu sản phẩm thử nghiệm đó cung cấp nhiều thông tin sai lệch, gây ra nhiều rắc rối và hiểu lầm. Giả dụ nếu ChatGPT không thành công mà bị đánh giá là tệ, gây mất niềm tin của người dùng, ảnh hưởng đến các sản phẩm ra mắt sau đó như Microsoft Prometheus hay Google Bard, liệu OpenAI có chịu trách nhiệm?

Đó cũng chính là một trong những lý do kìm hãm sự phát triển của các tập đoàn lớn, họ có quá nhiều quy tắc phải tuân theo trong khi các công ty nhỏ hơn lại sẵn sàng thử nghiệm những thứ mới và chấp nhận sai. Bản thân ChatGPT được tạo ra chỉ trong 13 ngày, khi OpenAI lo sợ việc trì hoãn phát hành GPT4.0 có thể là một bất lợi khi các tập đoàn lớn như Google hay Microsoft ra mắt chat bot trước.

Quay trở lại với những giả định về trí tuệ nhân tạo. Bạn đã từng xem rất nhiều bộ phim về các con robot rồi đúng không, chúng đều được tạo ra trên các cơ chế là không được làm hại con người. Thế nhưng giết người và không giết người là 2 trang thái đối lập nhau, là 0 hoặc 1, là những tác động vật lý. Trên thực tế, đề phòng những tác động vật lý sẽ dễ hơn nhiều so với những tác động tinh thần, lâu dài và từ từ.

Đã bao giờ bạn tưởng tượng, chuyện gì sẽ xảy ra nếu chúng ta liên tục tiếp nhận thông tin không rõ ràng, không chính xác và thậm chí là sai từ một người nào đó? Thà là nó sai hẳn thì dễ phân biệt, nhưng nếu nó là một tổ hợp các thông tin vừa sai vừa đúng, một chiều, trong một lĩnh vực bạn hoàn toàn xa lạ thì lại là một câu chuyện khác. Đặc biệt hơn nữa, những thông tin đó lại được cung cấp từ một nguồn rất dễ chịu, không bao giờ phàn nàn, không bao giờ tranh cãi và luôn lắng nghe như AI. Dần dần chúng ta sẽ hình thành một thói quen luôn nghe theo mà không có tư duy phản biện và suy nghĩ lại trong đầu, giống như cách các nội dung luôn được feed đến người dùng trên TikTok hay một số nền tảng online khác.

merlin_135847308_098289a6-90ee-461b-88e2-20920469f96a-superJumbo.jpg
Một ví dụ khác có vẻ cực đoan hơn, nhưng bạn đã từng nghe bộ phim 2001: A Space Odyssey từ 1968 chưa? Trong bộ phim này, nhân vật chính là một trí tuệ nhân tạo có tên gọi HAL 9000. Tóm tắt một cách cơ bản nhất thì HAL 9000 được thiết kế với nguyên tắc là phải nói rõ các thông tin chính xác với phi hành đoàn, nhưng nó cũng được giao nhiệm vụ phải che giấu mục đích thật sự của chuyến đi. Rõ ràng hai nhiệm vụ này hoàn toàn phủ định lẫn nhau. Bạn biết HAL đã làm gì không? Nó quyết định là giết toàn bộ phi hành đoàn, một mũi tên trúng hai con chim, nó chỉ đơn giản là giết người chứ có nói dối ai đâu, và rõ ràng là người chết thì không cần biết bí mật nào cả.

Mình biết có một mod tinhte thích HAL 9000 vì sự thông minh “sáng tạo” của nó lắm, dùng HAL 9000 là avatar mấy năm nay trên group chat 😁

Mình không biết có bạn nào coi phim này không, nhưng lần nào xem lại trích đoạn này vẫn thật sự nổi da gà với sự cố tình im lặng, với giọng lạnh lẽo, vô cảm và đáng sợ của HAL 9000

Trên kia chỉ là hai ví dụ cơ bản về nhưng thứ các công ty, tập đoàn lớn phải giải quyết khi phát triển AI. Nó phải được đảm bảo ở một mức độ nào đó trước khi ra mắt với công chúng. Trên thực tế, ChatGPT không làm hại chúng ta, nhưng nó vẫn tồn tại rất nhiều thông tin sai lệch cần kiểm chứng và chỉnh sửa lại trước khi sử dụng.

Ở góc độ cá nhân, tất nhiên chúng ta đều biết việc thông tin đưa vào đều phải được xử lý trước khi dùng, và mỗi người phải tự chịu trách nhiệm cho hành vi của mình. Nhưng ở góc độ tập thể, rõ ràng ai cũng muốn thông tin được cung cấp đều phải có một giá trị tham khảo và mang tính chính xác nhất định. Vậy ai là người đưa ra những yêu cầu, những tiêu chuẩn cho AI và nó là gì?

Vậy những mức độ, những yêu cầu và tiêu chuẩn đó là gì?
Sẽ không ai có thể trả lời được câu hỏi đó một cách đơn lẻ, mà nó là một sự kết hợp của các nhà làm luật, các nhà hoạt động xã hội cũng như các công ty công nghệ. Nhân dịp Chủ tịch Microsoft Brad Smith vừa đăng tải một bài blog về AI có trách nhiệm, mình xin phép dịch gần như nguyên vẹn một số ý chính trong bài viết này để chúng ta cùng tham khảo.

“Microsoft đã nỗ lực trong việc xây dựng cơ sở hạ tầng trí tuê nhân tạo có trách nhiệm từ 2017, tương tự với những gì diễn ra trong lĩnh vực an ninh mạng, quyền riêng tư và an ninh kỹ thuật số. Tất cả những nỗ lực này được kết nối với nhau theo hệ quản trị rủi ro của Microsoft dành cho các doanh nghiệp lớn để tạo ra những nguyên tắc, chính sách, các quy trình, công cụ và hệ thống quản trị. Trong suốt quá trình này, chúng tôi và các chuyên gia trí tuệ nhân tạo đã cùng lắm việc và học hỏi lẫn nhau”

Quảng cáo


“6 năm vừa qua, Microsoft đã đầu tư vào một chương trình hợp tác với nhiều công ty khác nhau nhằm đảm bảo các hệ thống trí tuệ nhân tạo của chúng tôi PHẢI ĐƯỢC THIẾT KẾ ĐỂ CÓ TRÁCH NHIỆM NGAY TỪ ĐẦU. Ngay từ 2017, Microsoft đã thành lập Ủy ban Aether bao gồm các nhà nghiên cứu, kỹ sư và chuyên gia chính sách để tạo ra những nguyên tắc cơ bản về AI, được ứng dụng từ 2018. Năm 2019, chúng tôi thành lập Văn phòng AI có trách nhiệm để quan trị các hoạt động liên quan đến trí tuệ nhân tạo, ra mắt phiên bản đầu tiên của những tiêu chuẩn cho AI có trách nhiệm, một bộ quy tắc để đảm bảo những nguyên tắc cấp cao luôn được tuân thủ ở tất cả các nhóm phát triển sản phẩm. Và trong năm 2022 vừa rồi, Microsoft đã tiếp tục củng cố và đưa ra tiêu chuẩn AI có trách nhiệm phiên bản thứ 2, sử dụng các phương pháp thực tế để xác định, đo lường và dự đoán, giảm thiểu các tác hại trước khi nó có thể xảy ra, đồng thời kiểm soát các thiết kế hệ thống ngay từ đầu.”

"Với các hệ thống trí tuệ nhân tạo, các nỗ lực xây dựng sản phẩm nên được bắt đầu với tư duy về khả năng cũng như các giới hạn của công nghệ. Cùng với OpenAI, chúng tôi nhận diện được những rủi ro phổ biến, chẳng hạn như việc một mô hình AI tạo ra những câu trả lời theo mỗi giống nhau, hay đưa ra các phản hồi có tính thuyết phục nhưng lại sai thông tin. Chìa khóa ở đây là phải thật sự hiểu về AI để có thể giải quyết vấn đề, giống với tất cả các khía cạnh của cuộc sống"

"Microsoft tin rằng khi mô hình trí tuệ nhân tạo ngày càng trở nên tiên tiến hơn, chúng ta sẽ phải tiếp tục giải quyết các câu hỏi nghiên cứu mới, thu hẹp các khoảng cách đo lường và thiết kế những công cụ, hình mẫu và phương pháp mới"

"Tôi tin rằng chúng ta nên tập trung vào 3 mục đích chính:
Đầu tiên, chúng ta phải đảm bảo rằng AI được xây dựng và sử dụng một cách có trách nhiệm và có đạo đức. Lịch sử đã chứng minh các công nghệ biến đổi như AI đòi hỏi những quy tắc mới. Các công ty lớn, có trách nhiệm thường sẽ tự chủ động và tự điều chỉnh nhằm mở đường cho những luật mới này, nhưng ai cũng biết không phải tất cả các công ty đều tự nguyện tuân thủ những nguyên tắc trên. Do vậy ,các quốc gia, các cộng đồng sẽ luôn phải tạo ra những buổi đối thoại để vạch ra một ranh giới rõ ràng nhằm đảo bảo mọi thứ được luật pháp bảo vệ. Theo quan điểm của chúng tôi, một quy định hiệu quả về trí tuệ nhân tạo thì phải được tập trung vào các lĩnh vực, ứng dụng có rủi ro cao nhất, tập trung vào tính hiệu quả và có tính bền vững trước sự thay đổi nhanh chóng của công nghệ cũng như kỳ vọng của công chúng. Để có thể lan tỏa lợi ích của trí tuệ nhân tạo một cách rộng rãi nhất, các điều luật, các phương thức tiếp cận sẽ phải được tương tác và thích ứng, giống như chính bản thân AI vậy"

“Thứ hai chúng ta buộc phải đảm bảo trí tuệ nhân tạo giúp nâng cao khả năng cạnh tranh toàn cầu nhưng vẫn đảm bảo an ninh quốc gia. Tôi ước là không phải nhưng rõ ràng chúng ta đang sống trong một thế giới phân mảnh, nơi mà ưu thế công nghệ là cốt lõi của khả năng cạnh tranh quốc tế và an ninh quốc gia. AI chính là biên giới tiếp theo của sự cạnh tranh đó. Với sự kết hợp giữa OpenAI, Microsoft hay DeepMind của Google, Mỹ có cơ hội tốt để duy trì vị thế lãnh đạo trong lĩnh vực công nghệ. Tuy vậy, những quốc gia khác cũng đang đầu tư rất nhiều vào trí tuệ nhân tạo.”

“Thứ ba, phải chắc chắn rằng AI phục vụ xã hội một cách rộng rãi chứ hẹp trong một phạm vi nào đó. Lịch sử cũng đã chỉ ra rằng những tiến bộ công nghệ quan trọng vượt xa khả năng thích ứng của con người và các tổ chức. Chúng ta cần những sáng kiến mới liên tục được phát triển theo tốc độ này, để người lao động có thể tận dụng trí tuệ nhân tạo, để học sinh có thể đạt được kết quả học tập tốt hơn, các cá nhân và tổ chức có thể tận hưởng sự tăng trưởng kinh tế công bằng và toàn diện. Các nhóm dễ bị tổn thương nhất, bao gồm cả trẻ em, sẽ cần được hỗ trợ nhiều hơn bao giờ hết để phát triển trong một thế giới mà AI hỗ trợ chúng ta. Và làn sóng đổi mới công nghệ tiếp theo này sẽ phải nâng cao sức khỏe tinh thần và hạnh phúc của mọi người, chứ không phải làm nó tệ và xói mòn đi. Cuối cùng, AI phải phục vụ con người và hành tinh. Trí tuệ nhân tạo có thể đóng vai trò chủ chốt trong việc giúp xử lý các khủng hoảng khí hậu thông qua việc phân tích kết quả môi trường, thúc đẩy sự phát triển của công nghệ năng lượng sạch và đẩy nhanh quá trình chuyển đổi sang điện sạch.”

Quảng cáo



“Microsoft cam kết hợp tác sâu sắc hơn với các tổ chức xã hội dân sự, học viện, chính phủ và các đối tác công nghiệp. Cùng với nhau, tất cả chúng ta sẽ có hiểu biết đầy đủ hơn về những lo ngại cần được giải quyết hay các giải pháp hứa hẹn nhất. Bây giờ là lúc để hợp tác chặt chẽ với nhau để AI tiếp tục phát triển.”

“Những vấn đề này trên đều quá quan trọng để các công ty công nghệ có thể tự mình giải quyết. Nhưng cũng không thể gạt họ ra vì không có tiến bộ nào có thể đạt được mà không có họ. Hơn bao giờ hết, chúng ta phải ngồi lại với nhau để cùng xử lý vấn đề này.”

“Tương lai của trí tuệ nhân tạo đòi hỏi một cách tiếp cận rộng rãi và đa ngành. Việc phát triển công nghệ, thuật toán có thể được thực hiện bởi các kỹ sư nhưng với mục đích phục vụ nhân loại, các nỗ lực phát triển AI trong tương lai đòi hỏi chúng ta phải tập hợp những nhà khoa học máy tính chung với tất cả mọi người từ những tầng lớp khác nhau, với tất cả những suy nghĩ của riêng họ. Hơn bao giờ hết, công nghệ đòi hỏi những người được đào tạo trong các ngành khoa học xã hội và nhân văn, có tư duy về lẽ thường hơn mức trung bình (common sense).”

"Có lẽ là quan trọng nhất, chúng ta được phục vộ tốt hơn bởi sự khiêm tốn hơn là sự tự tin. Sẽ có rất nhiều lời ra lời vào, nhiều ý kiến khác nhau, nhiều dự đoán khác nhau. Rất nhiều ý kiến trong đó đáng được cân nhắc. Nhưng tôi muốn trích dẫn một câu:

Hãy tò mò, đừng phán xét".
60 bình luận
Chia sẻ

Xu hướng

saltmai
ĐẠI BÀNG
một năm
Hướng tiếp cận từ các ông lớn và từ một startup sẽ khác nhau rất nhiều.
Cơ mà phải có cơn sốt này thì các ông lớn mới ra hàng nhanh cho anh em dùng được.
@saltmai Ở phim trên, có đoạn con Hal nó chơi cờ xong giả vờ thua, cố tình để ng thắng mới kinh 😆
AI cần phải đáng tin cậy và có đạo đức. Đây là 2 điểm được nhấn mạnh khi mình đi học về AI từ Châu Âu.
Và mình cũng có thể làm chứng cho việc các tập đoàn lớn đã đầu tư cho AI rất lâu rồi nhưng chúng chưa đủ cả "tin cậy" và "đạo đức" để đưa ra công chúng (người dùng cuối).
Người ta chỉ mới bắt đầu ứng dụng AI trong môi trường doanh nghiệp thôi.
@Vo Huu Phuc theo như mình hiểu, AI được nhúng vào môi trường doanh nghiệp ở 1 số phạm vi ko cần phải có sự đánh giá về tin cậy và đạo đức, vậy thì đúng hơn
@Vo Huu Phuc Không phải bạn ơi 😃) Doanh nghiệp họ có trình độ, nhận thức, và được đào tạo bài bản hơn end-user nhiều.

Do đó, họ có khả năng sử dụng đúng đắn hơn.
@hypous Làm mình nhớ tới một bài viết đọc đâu đó nói về một trường hợp nhân viên bị hệ thống quản lý tự động gửi thư sa thải, sau khi AI đánh giá năng lực làm việc của nhân viên đó dựa vào các kết quả trong thời gian qua không tốt 😃)
@Vo Huu Phuc Amazon đó bạn.
Nói tóm lại đã tới lúc đối mặt với nó thì không tránh được ... có chăng loài người 😂sử dụng nó như thế nào để ko gây ra ẩn hoạ về sau!
Thề luôn, cuối cùng mình cũng biết cảm giác BOONG ! BOONG ! BOONG ! vang lên trong đầu khi 2 tư tưởng lớn gặp nhau là như thế nào rồi.
Hình dưới là cmt của mình viết truoc khi đc đọc bài của bạn thớit.
tinhte.jpg
iMess
ĐẠI BÀNG
một năm
Cậu phải tự chịu tránh nhiệm.
Đã là tham khảo mà bắt thằng tham mưa chịu sao được b
AI có trách nhiệm , kaka , sợ AI trả lời đụng chạm đến bọn dân chủ , woke , blacklivematter , feminist thì có haha , coi thằng facebook nó chỉnh từng chút AI sợ đụng chạm mà tới khổ . Haha thời đại WOKE lên ngôi
chỉ là con GPT thôi báo rùm ben làm quá lên..... khổ thân thằng GPT....!!!
TRK
TÍCH CỰC
một năm
@vunh94 Thiên hạ làm rùm beng quá mức, rồi tới mấy ông Photoshop nó trả lời này nọ, sử dụng sự thật có tiến bộ nhưng không như lời đồn thổi banh nóc!
@TRK chắc MS đấm tiền cho truyền thông đây mà 😆)
TRK
TÍCH CỰC
một năm
@vunh94 Không được " Khôn " như lời đồn!
xxxxx.jpg
@TRK Bro phải ghi rõ: Lão Hạc trong tiểu thuyết Tắt Đèn của nhà văn Vũ Trọng Phụng thì nó mới tóm tắt ... máy được! kkk
@TRK Chẳng bit ChatGPT có gì hay nữa! bt mình vẫn tán dốc với siri hỏi đáp trả lời cực thông minh, chẳng qua là ko hỗ trợ TV nên ng Việt ko bit đó thôi!
joe1111
ĐẠI BÀNG
một năm
Thấy con này chỉ là dạng tổng hợp những thứ có sẵn trên mạng chứ éo có tí thông minh gì.

Nó viết đc code có lẽ do trên mạng chắc có bài hướng dẫn viết cái code đó nên nó scan được rồi mang ra lắp ghép
@joe1111 bậy nha bạn, mình kêu nó viết 1 function theo yêu cầu, xong mình chỉ ra chỗ sai/ chưa tối ưu, sau đó nó sửa theo yêu cầu của mình luôn. Quá thông minh ấy chứ
@joe1111 Tôi thấy sửa lỗi code hay mà.
joe1111
ĐẠI BÀNG
một năm
@quangduy90 Tại hướng dẫn viết func đã có trên mạng rồi, đây là loại hướng dẫn định lượng

Còn hướng dẫn định tính nó toàn k làm nổi, hỏi toàn trả lời vòng vo và chung chung
Nghe có vẻ sai sai: “Giả dụ nếu ChatGPT không thành công mà bị đánh giá là tệ, gây mất niềm tin của người dùng, ảnh hưởng đến các sản phẩm ra mắt sau đó như Microsoft Prometheus hay Google Bard, liệu OpenAI có chịu trách nhiệm?”
toàn nói mồm. ChatGPT không phải đột phá công nghệ nhưng nó cũng tát cho các ông lớn lật mặt. Ai biết các ông có làm được không hay chỉ bốc phét. Còn dân tình thì chỉ tin cái gì họ thấy đầu tiên. Tôi thì chẳng tin có con ông lớn nào làm được con bot tự viết code như chatGPT dù nó còn viết đôi lúc bị lỗi.
@IceNinja Chiến thuật tốt nhất của các ông lớn là chiến thuật theo đuôi. Họ sẽ không mạo hiểm để đi đầu mà lúc nào cũng cần người tế thần nếu thất bại họ kg mất gì, nếu thành công họ sẽ theo ngay. Hơn nữa với tiềm lực của Gg hoặc MS thì dư sức làm ra những con bot hơn ChatGPT.

Thông tin cho bác biết thêm là core của GPT là do thằng Google nó làm ra xong cho mọi người dùng miễn phí đó. 😁 Còn phần cứng cơ sở hạ tầng của ChatGPT là do MS độc quyền cung cấp. Các ông lớn nó nắm đằng chuôi :D
@honghoavi không tin là theo đuôi lắm vì có nhiều bÀi học về sự chậm trễ dẫn tới luôn lÀ kẻ theo sau rồi. Iphone màn hình cảm ứng với os phức tạp là một ví dụ.
Cũng giống như trong thể thao, khởi hành sớm quan trọng vô cùng.
@IceNinja @IceNingia cũng có thể mình nghĩ, mấy ông lớn tụi nó sợ trách nhiệm pháp lý chứ không phải là không làm được. Mấy con chatbot này đâu biết đúng sai chỉ toàn cung cấp thông tin.
chê và thở ra các đạo lý là cách nhanh nhất để người khổng lồ không bị che khuất bởi các thứ mới mẻ và xuất sắc. Ví dụ: chê tóc tóc, ...
Nhận tạo ac chatgpt theo gmail chính chủ nhé (25k)
Các bác ib zalo: 0359958957
Tạo trước bank tiền sau nha
Chat GPT để tán gẩu củng khá là thú vị mà. lại có thể học thêm 1 số kiến thức
@frigidDragon Tán gẩu với siri có từ lâu, buồn buồn hey siri hỏi nó 1 số thứ, nó thông minh đến nổi nhận biết dc mình đg hỏi thiệt hay chọc ghẹo nó! trả lời cực thông minh!
Bài này tự viết hay tổng hợp từ các nguồn báo nào vậy ? Có thể cho biết nguồn.
@hhoanganh tự viết á bạn
Con người có trách nhiệm còn khó đánh giá. Đúng sai khó phân định. Vì vậy đừng đỏi hỏi ở một ứng dụng trí tuệ nhân tạo hay chê bai. Không có khởi đầu như ChatGPT thì đừng mơ đến những thứ gọi là trách nhiệm, tiêu chuẩn đạo đức.
Hôm trước hỏi nó chết là gì nó nói chết là sự hồi sinh. Nghe mà muốn tự sát. Phải chăng nó biết sự thật của cái chết?
chủ thớt nằm trong nhóm thuyết âm mưu chắc rồi
Nhớ năm nào Google trình diễn màn đối thoại giữa người và máy thông qua tình huống đặt bàn tại quán ăn. Đến giờ vài năm trôi qua rồi không biết dự án này phát triễn tới đâu
@quocvu089 Siri có lâu rồi bạn!
@yushikara Có lâu hồi nào?
@quocvu089 Siri vẫn đối thoại dc, rất thông minh là đằng khác, nói lóng, nói ngọng, nó cũng hiểu, thậm chí nó phân biệt dc hỏi thật hay hỏi ghẹo nữa! tiếc là ko có tiếng việt thôi! chứ cả nn ít dùng như Thái lan cũng có rồi! VN chưa bao h dc coi ra gì!
@yushikara Dạ thưa, mình đang nói đến phần khác, chứ ko phải siri, hay google assitant. Mình đang nói cái này

Chứ ba cái trợ lí đt thì nói làm cái quái gì

Xu hướng

Bài mới









  • Chịu trách nhiệm nội dung: Trần Mạnh Hiệp
  • © 2024 Công ty Cổ phần MXH Tinh Tế
  • Địa chỉ: Số 70 Bà Huyện Thanh Quan, P. Võ Thị Sáu, Quận 3, TPHCM
  • Số điện thoại: 02822460095
  • MST: 0313255119
  • Giấy phép thiết lập MXH số 11/GP-BTTTT, Ký ngày: 08/01/2019