Laptop Acer



AMD giới thiệu mô hình AI đầu tiên họ tự phát triển: AMD-135M, dùng tối ưu quá trình nội suy

P.W
1/10/2024 11:16Phản hồi: 6
AMD giới thiệu mô hình AI đầu tiên họ tự phát triển: AMD-135M, dùng tối ưu quá trình nội suy
Theo thông tin chính thức của AMD, mô hình ngôn ngữ nhỏ (SLM) mang tên AMD-135M được các kỹ sư và các nhà nghiên cứu trí tuệ nhân tạo của hãng chip nước Mỹ phát triển, hiện tại dành cho mô hình ngôn ngữ lớn Llama của Meta. Thay vì là một mô hình AI để làm nần tảng cho những giải pháp chatbot xử lý on-device với tham số thấp, như Llama 3 8B hay Phi 3 của Meta và Microsoft, thì AMD-135M lại là một mô hình AI dùng để… hỗ trợ cho những mô hình AI tạo sinh phổ biến hiện nay.

AMD-135M tập trung tối ưu cho một giải pháp gọi là speculative decoding. Kỹ thuật này cho phép dự đoán những chuỗi token văn bản khi mô hình AI xử lý nội suy hiệu quả và tạo ra những nội dung chất lượng cao hơn. Ngay khi nội suy những token hiện tại, kỹ thuật speculative decoding sẽ cho phép dự đoán tiếp những token ngay sau đó, kèm thêm cơ chế xác thực để đảm bảo tính chính xác của những token mà AI tạo ra.

Với speculative decoding, mô hình AI nhỏ sẽ làm nhiệm vụ tạo ra những token tiềm năng, rồi mô hình lớn sẽ xác định token nào phù hợp và chất lượng cao nhất. Vậy là cùng lúc, hệ thống có thể nội suy cùng lúc nhiều token, nhưng không ảnh hưởng tiêu cực tới hiệu năng xử lý của hệ thống, đặc biệt là những thiết bị đầu cuối như laptop và smartphone anh em dùng hàng ngày.

Nếu không ứng dụng speculative decoding, quá trình nội suy nội dung của mô hình AI sẽ chỉ tập trung vào 1 token ở một thời điểm nhất định, tạm dịch là tự hồi quy (autoregressive approach). Giới hạn của giải pháp này là băng thông bộ nhớ không được tận dụng một cách tối đa, và thời gian nội suy bị ảnh hưởng.

Nói riêng tới AMD-135M, mô hình ngôn ngữ nhỏ này được huấn luyện dựa trên những chip tăng tốc machine learning MI250, vận hành trên 670 tỷ token, với hai phiên bản AMD-Llama-135M và AMD-Llama-135M-code. Một phiên bản dùng để tối ưu quá trình nội suy văn bản và nội dung, và phiên bản còn lại tối ưu cho quá trình viết những dòng code lập trình.
6 bình luận
Chia sẻ

Xu hướng

laiviet
TÍCH CỰC
3 ngày
Speculative decoding không giúp tạo được nội dung có chất lượng cao hơn chỉ giúp chạy nhanh hơn thôi.
GLES
TÍCH CỰC
3 ngày
@laiviet bài viết nói thuật ngữ khoa học mà còn ko check lại nữa mà bác =)))

nguồn thì ko có luôn =))))
laiviet
TÍCH CỰC
2 ngày
@GLES Chính từ bài báo của bạn nói câu đầu tiên "Speculative Decoding is a widely used technique to speed up inference for Large Language Models (LLMs) without sacrificing quality"
Chỗ nào nói nó giúp tạo ra với chất lượng tốt hơn vậy?
laiviet
TÍCH CỰC
2 ngày
@GLES Trong bài từ năm 2022, tác giả của SD viết:
"In this work we introduce speculative decoding - an algorithm to sample from autoregressive models faster without any changes to the outputs"

https://arxiv.org/pdf/2211.17192

"WITHOUT ANY CHANGES TO THE OUTPUTS"
GLES
TÍCH CỰC
một ngày
@laiviet yup ý mình nói là thg admin này láo thật =)))

người ta làm khoa học phải dẫn chứng, chém như đúng rồi

Xu hướng

Bài mới










  • Chịu trách nhiệm nội dung: Trần Mạnh Hiệp
  • © 2024 Công ty Cổ phần MXH Tinh Tế
  • Địa chỉ: Số 70 Bà Huyện Thanh Quan, P. Võ Thị Sáu, Quận 3, TPHCM
  • Số điện thoại: 02822460095
  • MST: 0313255119
  • Giấy phép thiết lập MXH số 11/GP-BTTTT, Ký ngày: 08/01/2019