Phía nam hạt Austin, Texas, những kỹ sư của AMD đã thiết kế ra một con chip tăng tốc xử lý thuật toán trí tuệ nhân tạo mang tên MI300, ra mắt cỡ 1 năm về trước. Những con chip thuộc thế hệ sản phẩm MI300 dự kiến sẽ đem về cho AMD doanh thu hơn 5 tỷ USD chỉ trong vòng 1 năm.
Không xa trung tâm nghiên cứu phát triển sản phẩm của AMD ở Austin, là phòng lab phát triển sản phẩm của một đơn vị trực thuộc tập đoàn Amazon. Những nhà nghiên cứu và các kỹ sư tại đây cũng đã phát triển ra thế hệ tiếp theo của con chip AI mang tên Trainium. Rồi sau đó họ lắp những con chip xử lý này vào những bo mạch cỡ lòng bàn tay, và cắm chúng vào hệ thống máy chủ, to bằng hai cái tủ lạnh đặt cạnh nhau để thử nghiệm hiệu năng.
Hai ví dụ kể trên, được thực hiện ở thủ phủ bang Texas là thứ mô tả quá trình chuyển dịch của thị trường chip AI liên tục biến đổi. Ở thời điểm hiện tại, dám khẳng định đây là ngành công nghệ được quan tâm nhất. Tính riêng thị trường này, Nvidia đã thống trị trong một khoảng thời gian dài. Nhờ những thế hệ chip xử lý AI trong máy chủ đám mây mà họ bán ra thị trường, Nvidia đã trở thành một tập đoàn khổng lồ, giá trị vốn hóa 3 nghìn tỷ Đô.
Trong những năm qua, những cái tên khác đều đã cố gắng bắt kịp tốc độ phát triển kiến trúc chip xử lý của Nvidia, những sản phẩm phục vụ vận hành những mô hình AI hàng nghìn tỷ tham số, nhưng chưa thực sự thành công.
Không xa trung tâm nghiên cứu phát triển sản phẩm của AMD ở Austin, là phòng lab phát triển sản phẩm của một đơn vị trực thuộc tập đoàn Amazon. Những nhà nghiên cứu và các kỹ sư tại đây cũng đã phát triển ra thế hệ tiếp theo của con chip AI mang tên Trainium. Rồi sau đó họ lắp những con chip xử lý này vào những bo mạch cỡ lòng bàn tay, và cắm chúng vào hệ thống máy chủ, to bằng hai cái tủ lạnh đặt cạnh nhau để thử nghiệm hiệu năng.
Hai ví dụ kể trên, được thực hiện ở thủ phủ bang Texas là thứ mô tả quá trình chuyển dịch của thị trường chip AI liên tục biến đổi. Ở thời điểm hiện tại, dám khẳng định đây là ngành công nghệ được quan tâm nhất. Tính riêng thị trường này, Nvidia đã thống trị trong một khoảng thời gian dài. Nhờ những thế hệ chip xử lý AI trong máy chủ đám mây mà họ bán ra thị trường, Nvidia đã trở thành một tập đoàn khổng lồ, giá trị vốn hóa 3 nghìn tỷ Đô.
Trong những năm qua, những cái tên khác đều đã cố gắng bắt kịp tốc độ phát triển kiến trúc chip xử lý của Nvidia, những sản phẩm phục vụ vận hành những mô hình AI hàng nghìn tỷ tham số, nhưng chưa thực sự thành công.
Giờ, sự hiện diện của những con chip Instinct của AMD hay Trainium của Annapurna Labs dưới sự điều hành của Amazon, cùng phản hồi của những khách hàng sử dụng những con chip này trong máy chủ đám mây, đang là những bằng chứng cho thấy, thị trường đang có những lựa chọn thay thế cho sản phẩm của Nvidia.
Đối với những tác vụ AI quan trọng, những sản phẩm cạnh tranh với chip của Nvidia đã chứng minh được rằng những con chip chuyên biệt của họ có thể tạo ra sức mạnh xử lý tốt hơn, hoặc chi phí vận hành rẻ hơn. Daniel Newman, nhà phân tích của Futurum Group cho rằng: “Đó là thứ tất cả mọi người tin tưởng vào tính khả thi. Nhưng đến giờ điều đó mới trở thành hiện thực.”
Quá trình chuyển dịch thị trường chip xử lý AI máy chủ được một vài cái tên dẫn dắt. Từ những tập đoàn công nghệ lớn như Amazon hay AMD, cho tới những startup nhỏ hơn. Tất cả đều chạy đua thiết kế và tối ưu những con chip bán dẫn cho từng công đoạn riêng lẻ của quá trình nghiên cứu, huấn luyện rồi vận hành AI. Quá trình vận hành AI, gọi là nội suy, diễn ra sau khi những tập đoàn và startup công nghệ sử dụng những hệ thống hàng nghìn con chip để huấn luyện những mô hình ngôn ngữ.
Cristiano Amon, CEO Qualcomm hé lộ kế hoạch sử dụng chip xử lý do Amazon phát triển để vận hành những tính năng AI, chẳng hạn như huấn luyện mô hình mới để vận hành với chip xử lý tiêu dùng của Qualcomm trang bị trong smartphone và laptop: “Giá trị kinh tế thực sự đến từ quá trình nội suy AI, và quá trình này đang dần tăng về quy mô. Chúng ta đang bắt đầu thấy sự thay đổi trong ngành công nghệ.”
Rồi những đối thủ cạnh tranh của Nvidia cũng đã bắt đầu học hỏi chiến lược phát triển và kinh doanh của “đội xanh” để triển khai theo một hướng khác. Giống hệt như Nvidia, họ cũng phát triển cả hệ thống máy chủ hoàn thiện chứ không chỉ riêng một con chip tăng tốc vận hành AI. Nhờ đó, khách hàng của họ có thể tận dụng tối đa sức mạnh và hiệu năng của những con chip được phát triển một cách chuyên biệt.
Quảng cáo
Hôm thứ 3 vừa rồi, Amazon đã thể hiện bằng chứng rõ ràng nhất của việc Nvidia đang có những đối thủ xứng tầm. Họ công bố những dịch vụ điện toán dựa trên máy chủ trang bị chip Trainium thế hệ thứ 2, đi kèm với đó là phản hồi của những đối tác tiềm năng, trong đó có cả Apple. Hệ thống máy chủ của Amazon Web Services có hai lựa chọn, 16 hoặc 64 chip Trainium 2, kết nối mạng cực nhanh để đảm bảo tốc độ nội suy mô hình AI.
Cùng lúc, Amazon cũng đang xây dựng hệ thống “nhà máy AI” quy mô khổng lồ cho startup Anthropic mà họ đang đổ vốn đầu tư, theo lời của CEO mảng Amazon Web Services, Matt Garman. Hệ thống cluster quy mô cực lớn này sẽ bao gồm hàng trăm nghìn con chip Trainium 2, mạnh hơn gấp 5 lần so với hệ thống hiện tại mà Anthropic đang được sử dụng.
Tom Brown, nhà sáng lập startup Anthropic nói: “Điều này đồng nghĩa với việc khách hàng sẽ được trải nghiệm AI nhiều hơn ở mức giá thấp hơn, với tốc độ cao hơn.”
Ước tính, trong năm 2024, số vốn đầu tư những hệ thống máy chủ đám mây không sử dụng chip GPU của Nvidia sẽ tăng 49%, đạt mức 126 tỷ USD, theo Omdia.
Ấy vậy nhưng, bất chấp tình hình cạnh tranh đang càng lúc càng nóng, điều đó không đồng nghĩa với việc Nvidia dễ bị hạ bệ khỏi vị thế dẫn đầu ngành chip xử lý AI máy chủ đám mây. Người phát ngôn của Nvidia dẫn lại tuyên bố của CEO Jensen Huang, mô tả lợi thế cạnh tranh lớn trong mảng phần mềm vận hành AI và hiệu năng nội suy mô hình AI của họ. Nhu cầu những con chip Blackwell đang rất cao, và dù rằng tiêu thụ điện năng cao hơn, hiệu năng so với công suất điện tiêu thụ cũng được cải thiện đáng kể.
Quảng cáo
Tình hình thị trường chip vận hành mô hình AI đang thay đổi cũng được kích thích bởi những startup được nhiều quỹ đầu tư rót hàng tỷ USD tiền vốn, chẳng hạn như SambaNova Systems, Groq hay Cerebras Systems. Tất cả họ đều khoe những sản phẩm tự phát triển, với lợi thế trong quá trình nội suy, vừa có tiêu thụ điện năng lẫn chi phí vận hành thấp hơn so với chip của Nvidia. Hiện giờ một con chip H200 kiến trúc Hopper của Nvidia có giá 15 nghìn USD. B200, kiến trúc Blackwell thậm chí còn có thể đắt hơn.
Chính điều đó đã khiến nhiều khách hàng doanh nghiệp chọn những giải pháp thay thế. Dan Stanzione của đơn vị nghiên cứu Texas Advanced Computing Center cho biết họ đã có kế hoạch đặt hàng siêu máy tính trang bị chip Blackwell trong năm 2025, nhưng sau đó lại chọn chip của SambaNova để vận hành nội suy mô hình AI, vì chi phí và tiền điện thấp hơn: “Chip Nvidia đơn giản là quá đắt.”
AMD cho biết, thế hệ chip tăng tốc AI trong máy chủ đám mây ra mắt trong năm 2025 sẽ nhắm tới việc cạnh tranh hiệu năng xử lý của Nvidia Blackwell. Trong phòng lab của AMD ở Austin, Texas, các giám đốc cấp cao cho biết hiệu năng nội suy là lợi thế rất lớn của thế hệ chip Instinct mới. Một khách hàng của AMD chính là Meta, sử dụng chip của Nvidia để huấn luyện mô hình AI mới nhất của họ, Llama 3.1 phiên bản 405 tỷ tham số, nhưng dùng những máy chủ trang bị Instinct MI300 của AMD để vận hành những tính năng AI trên những mạng xã hội mà Meta sở hữu.
Bên cạnh AMD và Amazon, thì Google, Microsoft hay Meta cũng đang tự phát triển những con chip AI phục vụ nhu cầu riêng của họ, để giảm chi phí, cùng lúc đặt mua và vận hành những chip AI của Nvidia. Trong tháng 12 này, Google dự kiến sẽ bắt đầu kinh doanh dịch vụ máy chủ đám mây trang bị những con chip Trillium, tức là những chip TPU thế hệ thứ 6, hiệu năng cao gấp 5 lần so với chip TPUv5.
Đối với Amazon, cái tên bị thị trường coi là đang có dấu hiệu tụt hậu trong ngành AI, cũng đã bỏ 75 tỷ USD vốn nghiên cứu phát triển sản phẩm phần cứng máy chủ phục vụ trí tuệ nhân tạo trong năm 2024.
Ở văn phòng của Annapurna Labs, thuộc quyền quản lý của Amazon, startup được mua lại hồi năm 2015, các kỹ sư tại đây trước kia đảm trách nhiệm vụ phát triển chip mạng và những chip vi xử lý đa dụng, phục vụ những máy chủ Amazon Web Services.
Nếu như Trainium thế hệ đầu tiên không tạo ra được tiếng vang cũng như thành công mà Amazon mong muốn, thì thế hệ 2 đang được họ đặt rất nhiều kỳ vọng. Hôm thứ 3 vừa rồi, Amazon đã công bố kế hoạch phát triển Trainium thế hệ 3, đương nhiên là với hiệu năng mạnh hơn hẳn so với Trainium 2. Eiso Kant, sáng lập kiêm giám đốc công nghệ startup AI Poolside đưa ra dự đoán Trainium 2 sẽ cải thiện hiệu suất vận hành so với chi phí lên tới 40%, nếu so sánh với chip xử lý của Nvidia.
---------------------------------------------------------------------
Mời anh em bình chọn các sản phẩm Máy tính yêu thích mình liệt kê dưới đây. Anh em tham gia bình chọn hạng mục bình chọn này sẽ có cơ hội trúng gói quà công nghệ.
Theo The New York Times