Con đường đến với AI cá nhân trên PC của mỗi người hãy còn dài

Lư Thế Nghĩa
12/3/2024 5:28Phản hồi: 23
Con đường đến với AI cá nhân trên PC của mỗi người hãy còn dài
AI this, AI that, AI everywhere... Nhưng để có được một AI đúng nghĩa của riêng mỗi người thì câu chuyện hãy còn xa xăm... Kể từ năm 2024 này, bạn có lẽ chẳng còn gì xa lạ với AI (trí tuệ nhân tạo), cả từ hình thức cơ bản nhất như tự động hoá công việc cho tới tự sáng tạo nội dung và xa hơn là AI đa/toàn năng (AGI - Artificial General Intelligence)... AI không còn là chuyện viễn tưởng như các bộ phim của thế kỷ trước mà đã len lỏi vào rất nhiều ngóc ngách trong đời sống số của chúng ta. Nhưng dù vậy, để gọi là có được một AI đúng nghĩa cá nhân (local AI) nhất là trên PC thì mọi thứ vẫn khá mờ nhạt.

local-ai-tren-pc-ca-nhan-tinhte-1.jpg

Chút vấn đề tên gọi


Trước hết, cần xác định rõ hơn định nghĩa AI cá nhân là gì. Thực sự mà nói, đây là vấn đề không có cơ sở ràng buộc chặt chẽ mà sẽ tuỳ thuộc "mức" OCD (khó tính) của từng người như thế nào. Nếu "dễ dãi", bạn có thể xem con Copilot của Microsoft (MS) là một AI cá nhân cũng được, hoặc Google (GG) Gemini hoặc ChatGPT, miễn là bạn có thể giao tiếp và làm việc trực tiếp được với chúng. Nhưng nếu là "người già khó tính", những con bot dựa vô điện toán đám mây (cloud) sẽ không thoả mãn tiêu chí "cá nhân" vì không có kết nối Internet thì chúng xem như "câm điếc mù". Chắc bạn còn nhớ mỗi khi GG hay Facebook "sập mạng" thì cuộc sống số của chúng ta nháo nhào thế nào chứ?

zalo-fb.jpg
Chúng ta lệ thuộc vô Internet tới mức nào?


Theo kiểu OCD thì một AI cá nhân sẽ là một con bot có thể hoạt động độc lập trên PC của bạn mà không cần phải lệ thuộc vào Internet (ở góc độ nào đó nó vẫn có thể dùng Internet để tra cứu thông tin giùm bạn nhưng không phải "sống dựa" vào server của MS, GG hay OpenAI...). Trong phạm vi bài viết này, mình sẽ dùng quan điểm OCD. Bạn có thể đang thắc mắc - tại sao lại phải "khó tính" thế?

Có một số lý do, đầu tiên, khoảng 20 năm trở về trước khi Internet còn chưa phổ biến (nếu là dân 7x, 8x, 9x thì bạn sẽ hiểu), hầu hết mọi ứng dụng PC đều là ứng dụng local. Bản thân các ứng dụng AI lúc đó (chủ yếu là chatbot) cũng thế. Không có "trợ giúp" từ Internet, con bot AI nào "thông minh" hay "ngu ngốc" sẽ hiện rõ mồn một (kiểu đi thi mà không được phép quay bài).

Tiếp nữa, khi tất cả các hãng phần cứng như Intel, AMD, NVIDIA, Qualcomm cùng "nổ" về NPU của họ, làm sao để biết NPU của ai tốt hơn ai khi bạn dùng cloud AI để làm việc? Và cái vấn đề khác nữa - cloud AI không cần PC của bạn phải có NPU thì ý nghĩa trang bị NPU trên chip của bạn có khác gì "làm cảnh"? Bạn gắn hay không gắn con card RTX thì bạn vẫn nói chuyện bình thường với ChatGPT được mà (quan trọng là net phải ngon)?

chatgpt-openai-tinhte.jpg
Bạn không cần phần cứng chuyên dụng để xài cloud AI

Nhưng quan trọng hơn hết (và có lẽ cũng là điều chính yếu cần phân biệt local AI vs. cloud AI) chính là tính bảo mật thông tin. Mình không nói rằng local AI không có rò rỉ thông tin nhưng cloud AI thì chắc chắn thông tin của bạn sẽ luôn nằm trên server của người khác. Và ở 2024 này, trừ phi là người tối cổ hay introvert (hướng nội) tuyệt đối, còn không chắc hẳn bạn đã từng thấy quảng cáo của GG, Facebook (FB) ở đâu đó ngay khi bạn vừa chat hay gọi điện cho bạn bè về một vấn đề gì đấy (miễn là có keyword nằm trong bộ lọc của quảng cáo). Có lẽ chưa khi nào mà tính riêng tư của cá nhân bị vi phạm nghiêm trọng như kỷ nguyên IoT và Big Data (hay Big Money?) này. Không bị sales bất động sản hay bảo hiểm hay chứng khoán hay coin gọi thì cũng là một "cán bụ" nào đó đọc vanh vách tên và thông tin của bạn để đòi chuyển tiền vô tài khoản...

Big data = Big Money


Có một câu nói phổ biến như này về chủ nghĩa tư bản - làm ăn kinh doanh kiếm tiền chứ không phải làm từ thiện. Bất kỳ dịch vụ cloud nào cũng đều tốn tiền đầu tư nghiên cứu, xây dựng và vận hành. Đơn giản nhất là chi phí tiền điện chỉ để nuôi server chạy 24/7/365 và công ty bán điện dĩ nhiên là không bán "free". Thế nên bằng cách này hay cách khác, mọi nhà đầu tư vô cloud đều phải tìm cách kiếm được tiền từ dịch vụ của mình. Ví dụ bạn không muốn làm khách hàng trả tiền cho GG để xem YouTube thì dữ liệu của bạn thành sản phẩm để họ đem đi bán và điều đó sẽ lặp lại với cloud AI. Hoặc bạn mất tiền để hưởng dịch vụ, hoặc bạn bị "đem bán", thậm chí là cả hai!

internet-ads-facebook-google.jpg

Quảng cáo


Big data có nghĩa dữ liệu của bạn là tiền của người khác

Tất nhiên, dùng local AI không có nghĩa là bạn tuyệt đối an toàn. Những công ty phát triển những ứng dụng AI local vẫn có thể tự ý thu thập data của bạn về server của họ, nhưng bạn có thể dùng tường lửa để hạn chế bớt các rủi ro trên. Ngoài ra, việc có thu thập data hay không và như thế nào còn lệ thuộc mô hình kinh doanh của từng công ty. Những công ty chỉ viết phần mềm kiếm sống thì việc xây dựng datacenter khổng lồ với họ là vô nghĩa vì như đã nói, chi phí vận hành rất tốn kém. Thu thập data mà không làm gì thì chỉ tốn điện với ổ cứng để lưu trữ.

Một chi tiết khác bạn có thể quan tâm là lập trình trong tương lai sẽ dễ hơn hiện tại nhiều (mà hiện tại còn dễ hơn cả quá khứ vài chục năm trước). CEO NVIDIA từng nói trẻ con sắp tới không cần học code nữa vì AI có thể làm được việc đó. Có thể ngay lúc này bạn chưa thể nhờ ChatGPT code ra một con local AI xịn xò được, nhưng 20 năm nữa thì ai biết được. Nhất là nếu mã nguồn mở trong nhà nhà có thể xài thì vấn đề còn thoải mái nữa. Hoặc nếu bạn có "đứa em SN 1996 đang làm coder vua của mọi nghề blah blah blah" thì có thể thuê họ code cho một con AI xài riêng cũng được. Suy cho cùng "software as a service" hay "coding as a service" thì local AI không phải là quá khó.

data-center-network-ton-kem-tinhte.jpg
Xây dựng datacenter cực kỳ tốn kém

Thoạt nghe mọi thứ thật dễ chịu phải không? Nhất là local AI (theo kiểu OCD). Song trước mắt (ít nhất là trong 2024 này), nhiều gam màu về nó vẫn xám xịt chứ chưa được hường cánh sen như tranh vẽ...

Những vấn đề của local AI

Quảng cáo


Trước tiên và trên hết, AI nói chung hay các NPU nói riêng trên từng con chip vẫn là một tính năng phần cứng mới. Sẽ mất nhiều năm để mọi chiếc PC đều được trang bị NPU giúp hỗ trợ xử lý AI, nên không phải chiếc PC nào cũng đáp ứng đủ điều kiện phần cứng (nếu app bắt buộc phải có NPU) ngay lúc này để chạy được local AI.

Nhưng phần cứng mới là phần nổi của tảng băng. Nếu là dân công nghệ lâu năm, hẳn bạn sẽ biết phần mềm luôn luôn chạy sau phần cứng. Có rất nhiều tính năng công nghệ đã xuất hiện lâu trên phần cứng nhưng mãi về sau phần mềm mới hỗ trợ. Trong vài trường hợp thậm chí, tính năng đó bị "lãng quên" hoặc phạm vi ứng dụng bị bó hẹp. Có thể lấy ví dụ như PhysX của NVIDIA hay AVX-512 của Intel hay 3DNow! của AMD. Tất nhiên AI là thứ đang được toàn ngành công nghiệp hỗ trợ thì nó sẽ có tương lai nhiều hơn những tính năng bị gắn chết với một hãng nào đấy.

deep-neural-network-tinhte.jpg
Một vấn đề của AI là có quá nhiều công nghệ và mô hình khác nhau

Dù vậy, kể cả khi phần cứng đã sẵn sàng thì việc khai thác chúng cũng không hề đơn giản. Một vấn đề khi nhắc tới AI mà ít ai để ý là hiện đang có rất nhiều hình thức AI khác nhau. Từ cái gốc AI cho tới Học máy (Machine Learning) rồi Học sâu (Deep Learning). Riêng khoản AI sáng tạo nội dung (Generative AI) cũng đã có những mô hình con như Foundation, Multimodal, Large Language (LLM), Diffusion...

Một cách ví von là AI cũng như... ung thư. Ai cũng nghĩ ung thư là một căn bệnh nhưng thực chất, đó là một trạng thái tế bào của một cơ quan bất kỳ - ung thư phổi khác ung thư dạ dày mà cũng chả giống ung thư trực tràng hay ung thư máu. Và AI cũng thế, nó rất rộng và có nhiều cách thức phát triển khác nhau. Kể cả một NPU chuyên biệt cũng không chắc chắn đã chạy được hết mọi ứng dụng AI trên đời. Thế nên để nói về ứng dụng AI thì cần nói rõ hơn là AI nào. Chắc chắn là ChatGPT không thể giống với Stable Diffusion hay AlphaFold.

Multimodal-Models.jpg
Diffusion-Models.jpg
Large-Language-Models.jpg
Những mô hình AI khác nhau hiện nay

Hạn chế sau cùng mà cũng có thể nói là lớn nhất và... không thể khắc phục của local AI chính là nó không phải là cloud AI. Tuy mặt trái của cloud AI là phải có Internet và có rủi ro người dùng bị thông tin, nhưng ngược lại thì chúng ta không phải quan tâm về tất cả những vấn đề khác của local AI. Bạn không cần phải có card RTX hay CPU Core Ultra hay Ryzen AI để làm việc với ChatGPT. Thứ duy nhất bạn cần là một đường truyền Internet cực xịn. Chưa kể local AI không có sẵn database cực lớn như cloud AI để "học". Nên chúng sẽ bị giới hạn về mặt năng lực, trừ phi hãng phát triển thường xuyên cập nhật để chúng không "hụt hơi" với cloud AI.

Trong khi sức mạnh của cloud AI đến từ hệ thống datacenter, thì local AI lại dựa trên phần cứng lẫn phần mềm có sẵn của người dùng. Vậy nên trải nghiệm local AI tốt hay không tốt thực sự không có gì đảm bảo (thậm chí còn phụ thuộc cả năng lực của người dùng). Nhưng cloud AI thì như đã nói, chủ yếu nằm ở đường truyền của bạn xịn tới đâu. Nói theo kiểu "vơ đũa" - cloud AI dành cho tất cả mọi người, local AI dành cho geek (dân chơi công nghệ).

Tạm kết


Dĩ nhiên nói như thế không có nghĩa bạn nên xài cái này hay cái kia. Vì như đã nêu, local hay cloud thì cái nào cũng có 2 mặt, được của bên này thì mất của bên kia và ngược lại. Chủ yếu ở chỗ bạn cần biết nhu cầu của bản thân là gì, những sản phẩm đang có trên thị trường là gì và cái nào hợp với bạn. Có thể trong mảng nghiên cứu thị trường, trending này kia thì việc cập nhật liên tục dữ liệu là cần thiết thì cloud AI sẽ phát huy tốt hơn. Nhưng khi bạn lo ngại những vấn đề bảo mật và bản quyền trí tuệ thì local AI sẽ đảm bảo hơn.

local-ai-config.jpg
Cài đặt local AI không dễ như nhập yêu cầu vào cloud AI

Nhìn chung, trước mắt trong giai đoạn ngắn hạn, local AI sẽ có rất nhiều vấn đề cần khắc phục. Không chỉ sự phân mảnh của cả phần cứng lẫn phần mềm và mô hình phát triển mà còn là người dùng sẽ "chịu" chạy theo đến đâu. Dù sao trong kỷ nguyên IoT này, việc bỏ tiền ra thuê một dịch vụ cloud nhìn chung vẫn dễ dàng và thoải mái hơn việc chọn một con card hay CPU, cài đặt OS lẫn driver cho phù hợp rồi phải mở app "đúng cách" thì mới trải nghiệm được.

cloud-and-ai.jpg
Trước mắt cloud AI vẫn tiện dụng cho tất cả mọi người

Con đường tương lai hãy còn rộng và dài...
23 bình luận
Chia sẻ

Xu hướng

Người ta còn định lên mobile luôn chớ pc đã ăn thua gì
Có một khái niệm gọi là continuous machine learning. MlL sẽ dùng output để tiếp tục cải thiện model. Nghĩa là bạn cần chia sẻ dữ liệu để model hoàn thiện hơn.
Ví dụ bạn nhờ AI gen 1 đoạn văn, sau đó tiếp tục sửa chữa, AI sẽ dần học theo văn phong của bạn, để các lần tiếp theo kết quả sx giong bạn hơn.
Nếu cứ sợ bị thu thập data, thì AI của bạn chỉ dừng lại ở kiến thức cũ, theo phong cách của người khác.
Tất nhiên việc thu thập dữ liệu sẽ có giới hạn, và bí mật.
Vừa làm cái ảnh chơi cờ với ông Trump xong:
00991-20240312113255-1970467292-DPM++ SDE Karras.png
00933-20240312110401-628010803-DPM++ SDE Karras.png
@jerryno6 Vâng, em đang test cái lora mặt em nên nhìn nó chưa ổn lắm, chắc phải kết hợp controlnet vào mới được
@Dark Man nếu nó làm ảnh từng người một thì khá chân thật bác à, nhưng nhiều người tương tác thì vẫn còn hơi khó.
Dark Man
ĐẠI BÀNG
3 tháng
@traithanhnam90 đơn lẻ thì dĩ nhiên sẽ dễ làm hơn vì chỉ có 1 khẩu độ hướng ánh sáng duy nhất

nhiều người thì nhiều khẩu độ ánh sáng khác nhau, khó là dễ hiểu
@traithanhnam90 Trump đang suy nghĩ về chuyện khác, không quan tâm đến ván cờ với ông
Thời đại giờ làm cái gì mà chẳng cần Internet, mạng sóng 4G phủ sóng toàn quốc rồi khỏi lo
jerryno6
ĐẠI BÀNG
3 tháng
Đợi giá PC rẻ hơn gấp đôi, thì lúc đó PC cá nhân mới chạy AI ổn được. Khi nào 1 con PC 20tr chạy dc AI ổn thì may ra phổ cập dc AI cho mọi người.
TQB103
ĐẠI BÀNG
3 tháng
Hiện tại -) tương lai -) ....
Mod nói cái điều giống kiểu: "Con đường đến với việc du lịch mặt trăng dễ như du lịch Mỹ hãy còn dài" vậy. Nó rất là hiển nhiên rồi...
mrcake
ĐẠI BÀNG
3 tháng
@Quy Le Anh Local AI, khái niệm này như kiểu 1 trợ lý cá nhân giống Travis trong Iron man. Nhưng AI nên hiểu và ứng dụng ở khía cạnh rộng, ông mod này đang nói về việc chúng ta có thể sở hữu 1 AI riêng, điều này khá hài hước và bất khả thi. Không biết mod đã dùng Stable Diffusion chưa
Cười vô mặt
Dark Man
ĐẠI BÀNG
3 tháng
@mrcake thực ra vấn đề bây h là các hãng công nghệ lạm dụng cái từ AI quá. nào là chip AI, điện thoại AI, PC AI, clq gì cũng AI

nó làm những ai không hiểu về tech bị "ngáo" AI rồi cứ tưởng sắm cái điện thoại có AI là tự dưng nó làm được những cái việc của cloud AI ngay và luôn ấy
thegate
TÍCH CỰC
3 tháng
Cái điện thoại AI mới ra quảng cáo rầm rĩ kìa.
Bài viết hay quá. Thanks mod
kết nối mới là tương lai, giờ này ai mà local.
AI chỉ mới rộ lên 1-2-3 năm nay thôi, phải từ từ giống như cái điện thoại cũng phải hơn chục năm mới khủng được.
Local AI hiện tại hoàn toàn khả thi chứ không phải là không. Ví dụ có thể setup Stabble diffusion lên máy tính cá nhân, yêu cầu là cần GPU có càng nhiều Vram càng tốt, hoặc có thể setup localllama ( https://www.reddit.com/r/LocalLLaMA/ ) lên máy cá nhân cũng đơn giản.
Hạn chế của Cloud AI ngoài chuyện bị theo dõi dữ liệu cá nhân thì AI còn bị hạn chế về đạo đức, tôn giáo, phân biệt chủng tộc... Ví dụ bạn không thể nào bảo MJ tạo ra ảnh 18+, hoặc không thể bảo chatGPT kể một chuyện cười về Nigg** Còn khi bạn chạy Stabble diffusion trên local thì ảnh gì cũng có thể tạo ra được, hoặc chạy locallama thì bạn bảo nó viết gì cũng được.
Setup một con local AI bạn sẽ có toàn quyền kiểm soát nó, đó là cái lợi lớn nhất. Trên thế giới cũng có 2 cách phát triển AI chủ đạo, 1 là scale phần cứng càng lớn thì càng mạnh (chạy tốt trên các cloud server/siêu máy tính), 2 là tăng hiệu suất của AI để nó có thể chạy tốt trên phần cứng tối thiểu (mobile/PC)
Dark Man
ĐẠI BÀNG
3 tháng
@scattered thì nội dung bài là local AI vẫn khó tiếp cận với số đông chứ đâu phải là không khả thi

tất nhiên có con AI của riêng mình thì quá ngon so với phải thuê mướn thằng khác phát cho rồi
Rồi AI sẽ tiếp cận mọi người na ná như cầch mà Apple đến với tất cả người tiêu dùng, và sẽ ở các cấp độ khác nhau và phiên bản cập nhật liên tục từng đơn vị nhỏ hơn giây nhiều lần. Và sẽ nhanh thôi vì đó là cách kiếm tiền thật nhiều. Khi đó BTC sẽ lên cấp độ khác nếu không sẽ bị các AI thông minh hơn nuốt chửng.
Namlvlee
TÍCH CỰC
3 tháng
khá là hay mỗi tội gợi ý chưa sát thôi

Xu hướng

Bài mới









  • Chịu trách nhiệm nội dung: Trần Mạnh Hiệp
  • © 2024 Công ty Cổ phần MXH Tinh Tế
  • Địa chỉ: Số 70 Bà Huyện Thanh Quan, P. Võ Thị Sáu, Quận 3, TPHCM
  • Số điện thoại: 02822460095
  • MST: 0313255119
  • Giấy phép thiết lập MXH số 11/GP-BTTTT, Ký ngày: 08/01/2019