Cuộc chạy đua phát triển AI tham số thấp, vận hành ngay trên smartphone và máy tính của anh em

P.W
20/5/2024 8:21Phản hồi: 12
Cuộc chạy đua phát triển AI tham số thấp, vận hành ngay trên smartphone và máy tính của anh em
Google, Microsoft, OpenAIMeta, hay thậm chí có thể là cả Apple cũng đang bước vào cuộc chạy đua này. Việc phát triển những mô hình ngôn ngữ lớn đa chế độ với hàng trăm, hàng nghìn tỷ tham số, nhận diện được mọi thứ từ văn bản, hình ảnh tới từng khung hình của một đoạn video vẫn là thứ các tập đoàn công nghệ tập trung, điều đó là không cần bàn cãi. GPT-5 ra mắt cuối năm nay hoặc đầu năm sau của OpenAI chẳng hạn.

Nhưng các quan chức của các tập đoàn công nghệ cũng đang để tâm tới một nguồn thu mới, đó là những mô hình AI “cỡ nhỏ”, tham số chỉ ở ngưỡng vài tỷ, đủ để nhân NPU nói riêng và những con chip xử lý máy tính cá nhân và smartphone nói chung có thể vận hành dễ dàng.

Lấy ví dụ, Apple công bố OpenELM, tham số dao động từ 270 triệu đến 3 tỷ. Microsoft cùng thời điểm ấy công bố Phi-3 Mini, dao động từ 3.8 đến 14 tỷ tham số. Meta đã có phiên bản 8 tỷ tham số của Llama-3. Startup Pháp Mistral thì có mô hình Mixtral 8x7B. OpenAI thì vừa công bố GPT-4o tuần trước, chi phí vận hành thấp hơn hẳn trên các máy chủ đám mây. Cuối cùng là Google, với Gemini Nano, và mô hình Gemma thế hệ 2 đang được phát triển, trước đó là Gemma với 7 tỷ tham số, đủ nhỏ để vận hành local trên thiết bị công nghệ, được công bố ở I/O 2024:

Apple giới thiệu OpenELM: Mô hình AI vận hành trên chip iPhone, có 8 phiên bản khác nhau

Apple có thể đi sau OpenAI hay Google trong cuộc chạy đua AI, nhưng tốc độ họ nghiên cứu và công bố những sản phẩm mới, dự kiến sử dụng làm nền tảng cho những sản phẩm AI ứng dụng trong thiết bị công nghệ họ bán ra thị trường thì thực sự chóng mặt.
tinhte.vn

Microsoft khoe AI Phi-3 Mini: Thông minh như ChatGPT, nhưng chỉ cần điện thoại hoặc laptop xử lý

Apple giới thiệu OpenELM, và Microsoft giới thiệu thế hệ mô hình AI Phi-3 trong cùng một ngày. Điểm chung của chúng rất rõ ràng, đó là những mô hình với tham số khác nhau của cả OpenELM lẫn Phi-3 đều đủ nhỏ gọn để xử lý trên chip trong điện thoại…
tinhte.vn

GPT-4o: Vũ khí mới nhất để OpenAI cạnh tranh với Gemini, hữu ích, thông minh và đa dụng hơn

Đồng ý rằng hiện giờ Gemini vẫn chưa thể cạnh tranh được với GPT-4 về khả năng tạo sinh nội dung. Nhưng nếu cứ ngủ quên trên chiến thắng, OpenAI sẽ để Google vượt qua. Vượt qua ở đây không đơn giản là sức mạnh của bản thân mô hình ngôn ngữ Gemini…
tinhte.vn

Google IO 2024: AI tạo video, AI nói chuyện với người, nhìn và hiểu thế giới thật, phát hiện lừa đảo

Tại sự kiện I/O 2024 đang diễn ra, AI là trọng tâm của hầu hết các sản phẩm, công nghệ mới mà Google cung cấp. Bằng việc ra mắt các model mới với số lượng tham số lớn, các model nhỏ dành cho các tác vụ ơn Device tích hợp sẵn vào máy…
tinhte.vn


Lẽ đương nhiên, tham số càng cao, thì khả năng tạo sinh nội dung của những mô hình ngôn ngữ sẽ càng mạnh, xử lý được càng nhiều lệnh và yêu cầu phức tạp của người dùng. Lấy ví dụ những nguồn tin không chính thức nói rằng GPT-4o và Gemini 1.5 Pro đều có trên 1 nghìn tỷ tham số. Meta thì đang huấn luyện LLama 3 phiên bản 400 tỷ tham số. Vấn đề lại nằm ở chỗ, những mô hình kích thước rất lớn này cần có những data center khổng lồ với cả giá trị lẫn chi phí vận hành nằm ở ngưỡng 10 con số tiền Đô.

Thuyết phục các tập đoàn và khách hàng doanh nghiệp lựa chọn những mô hình AI kích thước lớn, đi kèm với đó là chi phí vận hành dựa trên 1 triệu token cao đã là một vấn đề. Vẫn còn đó những lo ngại về bảo mật thông tin và quyền riêng tư của người dùng khi dữ liệu được tải lên máy chủ đám mây.

[​IMG]

Vậy là các tập đoàn nhận ra sự cần thiết của những mô hình đủ nhỏ gọn để vận hành trên phần cứng thiết bị đầu cuối, không gửi dữ liệu lên máy chủ đám mây, vận hành tiết kiệm điện, có thể tùy chỉnh để vận hành những trợ lý ảo trong thiết bị công nghệ.

Eric Boyd, phó chủ tịch phụ trách nền tảng Azure AI của Microsoft, kinh doanh mô hình AI cho các doanh nghiệp và tổ chức: “Có một mô hình AI có chất lượng, vận hành ở chi phí thấp, bạn có thể tạo ra rất nhiều những ứng dụng cho khách hàng, những thứ trước đây họ dè dặt hoặc không khả thi vì không đủ doanh thu và lợi nhuận để họ đầu tư khoản tiền lớn tham gia cuộc chạy đua AI.”

Nick Clegg, chủ tịch phụ trách quan hệ toàn cầu của Meta cho biết phiên bản Llama 8 tỷ tham số có sức mạnh so sánh được với GPT-4 của OpenAI: “Tôi nghĩ dựa vào mọi thước đo bạn có thể nghĩ ra, bạn sẽ thấy hiệu năng của mô hình Llama vượt trội hơn hẳn.”

Microsoft thì khẳng định rằng Phi-3 Small, mô hình AI 7 tỷ tham số của họ vận hành tốt hơn cả GPT-3.5, mô hình vận hành chatbot ChatGPT lúc dịch vụ này mới ra mắt tháng 11/2022.

Quảng cáo


8320257-2024-04-27-image-3-j-1100.webp

Những mô hình này đều có chung một lợi thế, là mọi dữ liệu cá nhân của người dùng đều được lưu trữ và xử lý trên thiết bị của người dùng, không phải gửi đi đâu cả. Về vấn đề này, Charlotte Marshall của hãng luật Addleshaw Goddard nói rằng: “Một trong những thử thách lớn nhất mà những khách hàng là ngân hàng chúng tôi phục vụ trước khi lựa chọn dịch vụ AI tạo sinh phục vụ các khách hàng, chính là việc họ phải tuân thủ rất nghiêm ngặt những quy chế quản lý xử lý và chuyển giao dữ liệu người dùng.” Theo cô Marshall, mô hình AI kích thước nhỏ, tham số thấp, có thể xử lý local “tạo ra cơ hội cho các doanh nghiệp” vượt qua những lo ngại về pháp lý và chi phí vận hành.

CEO Sam Altman của OpenAI cũng khẳng định hồi tháng 11 rằng OpenAI có những mô hình AI kích thước đa dạng cung cấp cho các khách hàng, “phục vụ vận hành những nhu cầu khác nhau”. Anh này cho biết thêm: “Có những tính năng các mô hình AI nhỏ làm rất tốt. Tôi cảm thấy háo hức vì điều đó.” Nhưng theo Altman, tập trung chủ yếu của OpenAI vẫn sẽ là những mô hình lớn, tham số cao với khả năng scale lên vận hành ở quy mô lớn, với những khả năng tư duy lý luận, lên kế hoạch cho người dùng nhờ việc có khả năng ghi nhớ, và xử lý những tác vụ vượt qua tầm khả năng của trí thông minh của con người.

Theo FT
12 bình luận
Chia sẻ

Xu hướng

thu gọn đủ nhỏ để chạy trên điện thoại là một nửa bài toán thôi. Hiệu suất sử dụng năng lượng mới là nửa khó giải. Công nghệ pin điện thoại có vẻ chậm tiến quá bao năm vẫn chưa cải thiện gì nhiều.
@4ever1lov3 Biết đâu chạy ai giúp tiết kiệm pin hơn là ko ai đó. Ví dụ tự search mất 5 phút, ai trả lời mất 5 giây. Màn hình 5 phút nó ngốn bao nhiêu pin rồi
@4ever1lov3 thì Andr họ cải tiến vụ sạc pin đó, pin đã giậm chân rồi mà sạc còn chậm rì nhu ip thì ai mà chịu được
Nếu AI on device thì Apple có lợi thế khá lớn nhờ khả năng kiểm soát phần cứng và hệ sinh thái đồng bộ tốt.
Còn trên cloud thì chắc Apple không có tuổi.
@Saga0803 Hệ sinh thái thì liên quan gì. Còn phần cứng thì tạm nghe được. Tuy nhiên quan trọng nhất là cái model chứ phần cứng luôn có cách giải quyết.
@Tào Thừa Tướng model là gì vậy bác?
@Saga0803 On device thì rồi cũng phế như con đần siri thôi
Chậm chân là chết
Vanga nói đúng
Vậy là cuộc chơi này chỉ dành cho AMD, Apple, SNAPDRAGON

Trẻ em như Dimensity, Intel chạy sau tý
Trẻ sơ sinh Exynos đợi 10 năm nữa
Google sẽ là ẩn số
Tham số thấp dốt mà nhiều khi còn nói láo nữa, nên dùng thêm nhứt đầu chứ dc gì 😂😂😂😂
Tham số thấp thì dễ bị dốt và ăn tục nói phét, cái này thì Táo nó đang dẫn đầu xu hướng

Xu hướng

Bài mới









  • Chịu trách nhiệm nội dung: Trần Mạnh Hiệp
  • © 2024 Công ty Cổ phần MXH Tinh Tế
  • Địa chỉ: Số 70 Bà Huyện Thanh Quan, P. Võ Thị Sáu, Quận 3, TPHCM
  • Số điện thoại: 02822460095
  • MST: 0313255119
  • Giấy phép thiết lập MXH số 11/GP-BTTTT, Ký ngày: 08/01/2019