Microsoft Maia/Cobalt 100: Chip AI tự phát triển, dùng vận hành Copilot và Bing Chat

P.W
18/11/2023 12:35Phản hồi: 34
Microsoft Maia/Cobalt 100: Chip AI tự phát triển, dùng vận hành Copilot và Bing Chat
Rõ ràng không có gì sánh được bằng những chip xử lý được thiết kế chuyên biệt cho từng tác vụ. Microsoft cũng hiểu điều đó. Vài năm qua đã có tin đồn nói rằng họ đang trong quá trình phát triển chip silicon phục vụ riêng nhu cầu xử lý thuật toán AI. Tin đồn hóa ra là sự thật, khi trong tuần vừa qua, trong khuôn khổ sự kiện Ignite 2023, Microsoft đã công bố tận 2 con chip kiến trúc ARM, dự kiến từ năm sau sẽ ứng dụng trong những máy chủ đám mây Azure để vận hành những dịch vụ AI như Microsoft Copilot.

Có thể, Maia 100Cobalt 100 chính là sản phẩm của dự án Athena, nỗ lực giúp Microsoft bớt phụ thuộc vào Nvidia với những GPU phục vụ riêng cho thị trường xử lý AI như A100 hay mới nhất vừa được giới thiệu là H200 kiến trúc Hopper.

tinhte-ai1.jpg

Đầu tiên, chip tăng tốc xử lý AI Microsoft Azure Maia 100 được tạo ra chỉ để phục vụ một mục đích duy nhất: Đạt hiệu năng xử lý mạnh nhất khi vận hành những mô hình ngôn ngữ quy mô lớn (LLM) như GPT-3.5 Turbo hay phức tạp hơn là GPT-4. Con chip này được TSMC gia công trên tiến tình 5nm, die silicon không dưới 105 tỷ transistor. Sức mạnh của Maia 100 cho phép hỗ trợ những format sub-8-bit để train mô hình ngôn ngữ cũng như vận hành nội suy, ứng dụng mô hình ngôn ngữ cho chatbot hay những dịch vụ như Copilot hay Bing Chat.

Để tiện so sánh, chip xử lý AI mạnh nhất thế giới hiện giờ, trước khi H200 ra mắt chính là H100, trang bị 80 tỷ transistor trên bề mặt die. Instinct MI300X sắp bán ra thị trường của AMD thì có tận 153 tỷ transistor. Còn về mặt hiệu năng, Microsoft hoàn toàn không công bố sức mạnh xử lý số thực dấu phẩy động FP32 hay FP64, mà chỉ cho biết chip Maia 100 có băng thông bộ nhớ lên tới 4.8 terabit/s, nhờ vào giao thức kết nối dựa trên nền Ethernet, giúp mở rộng quy mô máy chủ đám mây cũng như hiệu năng xử lý.


Quá trình hợp tác đầu tư giữa Microsoft và OpenAI cũng được cho là đã góp phần giúp Microsoft hoàn thiện Maia 100. Microsoft đã được làm việc cùng các nhà phát triển LLM bên OpenAI để tối ưu kiến trúc và thử nghiệm những mô hình GPT trên bản thử nghiệm của những con chip chuyên biệt. Nhờ đó, đối với Microsoft, điều này sẽ giúp tối ưu hiệu năng kiến trúc AI của dịch vụ đám mây Azure. Về phần OpenAI, nhờ Maia 100, họ sẽ có thể huấn luyện những mô hình ngôn ngữ mới trên những hệ thống có chi phí thấp hơn nhiều so với những giải pháp của Nvidia hay AMD.

tinhte-ai2.jpg

Con chip thứ hai, Cobalt 100 là một CPU 128 nhân 64-bit dựa trên kiến trúc Neoverse Compute Subsystems của ARM. Microsoft cho biết, nhờ CPU này điều khiển hệ thống, cải thiện hiệu năng trên những hệ thống xử lý đám mây Azure sẽ tăng 40%, nhưng là so sánh với những máy chủ trang bị chip ARM thế hệ hiện giờ. Những dịch vụ mà Cobalt 100 sẽ được tận dụng để vận hành bao gồm Microsoft Teams hay dịch vụ hệ điều hành đám mây Windows 365.

tinhte-ai4.jpg

Giám đốc mảng hệ thống kiến trúc Azure của Microsoft, bà Rani Borkar cho biết, chip tự phát triển của hãng là thành quả nghiên cứu và kinh nghiệm trong suốt 2 thập kỷ đồng phát triển những chip xử lý cho máy game Xbox hay máy tính bảng Surface. Cobalt 100 cho phép Microsoft kiểm soát hiệu năng và tiêu thụ điện theo từng nhân, từ đó xây dựng được một cụm máy chủ thực sự tiết kiệm chi phí vận hành.

View attachment 7718365

Hình trên là giải pháp minh họa cho hệ thống trang bị chip Maia 100 và Cobalt 100. Microsoft đã phải thiết kế ra cả một hệ thống tản nhiệt và từng rack server riêng, để có nhiều không gian cho cáp điện và cáp mạng. Với hệ thống này, chi phí vận hành thấp hơn nhiều so với những hệ thống máy chủ trang bị CPU và GPU của AMD và Nvidia.

Hiện tại chi phí phát triển, huấn luyện và vận hành nội suy mô hình ngôn ngữ vẫn đang rất cao, quy mô người dùng càng lớn thì chi phí càng cao. Ước tính vận hành chatbot AI có chi phí cao gấp 10 lần so với vận hành một công cụ tìm kiếm trực tuyến. Làm chip custom phục vụ riêng từng nhu cầu xử lý cụ thể vừa giải quyết được những vấn đề liên quan tới nguồn cung chip AI, vừa giúp Microsoft có được lợi thế khi thị trường xử lý AI càng lúc càng nóng lên.

Quảng cáo



Những đơn vị như Amazon, Meta và Google giờ cũng đã có chip xử lý riêng. Những công ty nghiên cứu khác như Ampere thì đang mơ ước trở thành nhà cung cấp chip data center kiến trúc ARM lớn trong tương lai.

NVIDIA chính thức giới thiệu GPU Hopper H200: GPU xử lý AI mạnh nhất thế giới

Tại sự kiện SC23 (Supercomputing 2023) mới diễn ra vào sáng nay, NVIDIA chính thức công bố GPU dựa trên kiến trúc Hopper mới là H200, chính là GPU chuyên về xử lý AI mạnh nhất mà loài người từng tạo ra.
tinhte.vn


Dù đã có Maia 100 và Cobalt 100, nhưng trong tương lai gần, Microsoft vẫn sẽ tiếp tục ứng dụng chip xử lý của các hãng khác, bao gồm cả H200 vừa được Nvidia công bố cách đây ít ngày trong những máy chủ Azure xử lý thuật toán AI và mô hình ngôn ngữ.

Theo Techspot
34 bình luận
Chia sẻ

Xu hướng

Làm thì ai làm cũng đc, quan trọng có công nghệ lõi để tối ưu hay ko, render AI có mượt hay ko, tiết kiệm điện hay ko. Chứ ko tối ưu đc cũng vứt
@Dr.Son khịa ai, khịa cái gì? Nó định khịa cty có giá trị nghìn tỷ hay sao?
@rongxike thì có khi nào ô này cmt có ý nghĩa gì đâu
@sốt-rét-và-sốt-xuất-huyết-2023 Nick này rác quá có ban được không cho sạch Tinh tế với
OpenAI bây giờ là của anh rồi sau khi đuổi cổ CEO cũ 😆, giờ anh sẽ dùng chip anh làm cho OpenAI
taidv1994
ĐẠI BÀNG
6 tháng
@Huong-Dung vẫn của vài người ban đầu nhé, ko có thỏa thuận M nào chiếm 51% cả nhé. Những ng sáng lập nắm cổ phiếu đâu phải ngu?
mà quan trọng nếu mất cty nhưng nhà khoa học chính cũng sẽ bay sang cty khác thôi. họ là những ngôi sao sáng trong lĩnh vưc này rồi
@taidv1994 Trong số cổ đông có lợi nhuận, Microsoft chiếm 49% và nhà đầu tư khác chiếm 49%, chỉ có 2% của board phi lợi nhuận (mấy người sáng lập). Trong 49% nhà đầu tư kia, cũng có thể phần lớn là từ các thành viên của M$. Nói chung vấn đề thành công ty con, sau đó bị bố chết chỉ là thời gian 😃
Vẫn phải phụ thuộc vào Nvidia thôi. Khách hàng vẫn đòi dùng Nvidia thì hơi khó để tách ra hẳn.
laiviet
TÍCH CỰC
6 tháng
@Quy Le Anh Khách mua API thì đòi thế nào đc? Chỉ có khách thuê máy chủ mới đòi thôi.
@Quy Le Anh Nó làm ra là để giảm phụ thuộc vào đối tác, còn vẫn mua chip intel, amd, nvidia bình thường.
Mấy tập đoàn như MS, Gg, Amz là khách hàng rất lớn của Nvidia, chủ động làm chip mà deal giá với Nvidia
@Quy Le Anh cả Azure là bộ máy lớn, nó có đủ thứ để áp dụng. Khách hàng cuối chỉ quan tâm tốc độ, uptime và tiện nghi, ai quan tâm gì chip của ai.
Hi vọng chip mới sẽ cải thiện tối ưu RAM, chứ 8GB RAM của đối thủ đã bằng 16GB của MS rồi
HXV
ĐẠI BÀNG
6 tháng
@centernc B đang nói về vấn đề gì
Trend bây giờ là chip tự thiết kế để chạy trên máy chủ , còn trend ngày xưa là chip tự thiết kế để chạy trên dt ,
MS còn phải cố gắng nhiều, 16Gb ram của Windows mới bằng 8Gb của Apple
HXV
ĐẠI BÀNG
6 tháng
@ntroppld Đầu đất. Cái này liên quan gì đến apple. Nó có phải là hdh Windows hay macos đâu mà 8g 16g. Nó là chip máy chủ. Mà máy chủ thường dùng Linux.
Nói là tự nghiên cứu cho oai thôi , để làm giá thôi . Đi mua luôn rẻ =1/3 giá phải tự nghiên cứu .
Hho
ĐẠI BÀNG
6 tháng
Nvidia cưởi bảo: “dể làm thì a đâu bán giá cắt cổ”, mây chú cứ hăm, xin mời .
Chốt lại hơn exynos không?
@Doãn_Chí_Bình K ăn dc con mac ghẻ RAM 6GB mà đòi so với Exy?
conco119
TÍCH CỰC
6 tháng
Chế chip bên chạy phía server dễ thở hơn nhiều so với chip cho end user
team này là từ mấy ông Qualcomm nó lươm về thì phải. Từ từ làm cho cloud, xong hoàn chỉnh nhảy luôn vào Mobile và laptop tự làm chủ là rất ổn.

Học theo Edge cũng fork cái Android thành OS mới chạy riêng nữa là Google nó sợ. HarmonyOS của Huawei giờ tưởng làm chơi ai dè thành công siêu tưởng, có hơn 700 triệu user, TQ giờ loại dần Android, chắc sau này Android chỉ để bán quốc tế.
Người ta thì nghiên cứu chip này chip nọ. VN vẫn ngạo nghễ bằng cách sản xuất kit test. Xin tiền làm nanocovax đến giờ ém luôn =))))
@HaoTran20 vậy thì bạn đã nghiên cứu đc gì rồi? Công bố lên cho mọi người mở mang tầm mắt nào
@Còn Cái Nịt Ông tuổi đ gì mà đòi coi nghiên cứu của tôi
@HaoTran20 à, vậy chắc nghiên cứu mõm rồi. 😃
@Còn Cái Nịt Mõm hay không ông cũng tuổi l được biết. Muốn biết thì nôn tiền ra để tôi làm nghiên cứu đi rồi tôi show cho biết. Còn không thì tuổi l. Còn cái kiểu đớp tiền thuế của dân xong ỉm mà còn bênh được thì 1 là nguuu 2 là rất nguu 3 là dư luận viên =)))
@HaoTran20 bênh chỗ nào? mõm thì cũng chỉ biết chê người khác trong khi mình cũng chả có mẹ gì. 😆
Nhà nhà chíp AI còn ông in tèo vẫn im hơi lặng tiếng phát triển chip 10nm.
làm gì chuyên môn hoá vẫn ngon hơn, microsoft tạo ra tiếng nói cho vui thôi nhỉ 😁

Xu hướng

Bài mới









  • Chịu trách nhiệm nội dung: Trần Mạnh Hiệp
  • © 2024 Công ty Cổ phần MXH Tinh Tế
  • Địa chỉ: Số 70 Bà Huyện Thanh Quan, P. Võ Thị Sáu, Quận 3, TPHCM
  • Số điện thoại: 02822460095
  • MST: 0313255119
  • Giấy phép thiết lập MXH số 11/GP-BTTTT, Ký ngày: 08/01/2019