Toàn bộ nguồn cung bộ nhớ HBM3e trong năm 2024 của Micron đã bán hết

Lư Thế Nghĩa
22/3/2024 20:23Phản hồi: 7
Toàn bộ nguồn cung bộ nhớ HBM3e trong năm 2024 của Micron đã bán hết
Không chỉ như tựa bài mà còn hơn vậy nữa, kể cả phần lớn nguồn cung bộ nhớ HBM3e trong năm 2025 của Micron cũng đã có khách đặt mua hết. Giám đốc điều hành của Micron - Sanjay Mehrotra - cho biết: “Bộ nhớ HBM của chúng tôi đã bán hết trong năm 2024, đồng thời phần lớn nguồn cung năm 2025 cũng đã được phân bổ xong. Chúng tôi kỳ vọng thị phần của HBM sẽ ngang ngửa với thị phần DRAM tổng thể cũng trong năm 2025.”.

Micron cho biết bộ nhớ HBM3e sẽ được sử dụng trong GPU H200 của NVIDIA dành cho ứng dụng trí tuệ nhân tạo (AI) và điện toán hiệu năng cao (HPC). Bộ nhớ hiệu năng cao HBM3e có dung lượng 24 GB, xếp chồng 8 tầng (8-Hi) dạng khối vuông (cube), cung cấp tốc độ truyền tải dữ liệu tới 9.2 GT/s và băng thông nhớ tối đa hơn 1.2 TB/s. Tổng cộng có 6 cube HBM3e như vậy hỗ trợ cho mỗi NVIDIA H200 GPU, tổng dung lượng 141 GB, băng thông 4.8 TB/s. Dự kiến năm tài chính 2024, doanh thu của HBM sẽ đạt hàng trăm triệu USD. Micron cũng kỳ vọng doanh thu từ HBM sẽ đóng góp tích cực vào lợi nhuận gộp tổng thể, kể từ Q3.

micron-hbm3e-2024-2025-tinhte.jpg

Sanjay Mehrotra nói rằng Micron đã bắt đầu sản xuất mẫu thử nghiệm HBM3e với 12 tầng xếp chồng (12-Hi), tăng dung lượng bộ nhớ thêm 50%, từ đó cho phép huấn luyện các mô hình ngôn ngữ kích thước lớn hơn trong lĩnh vực AI. HBM3e dung lượng 36 GB sẽ được trang bị cho các bộ xử lý AI thế hệ kế tiếp, hãng cũng sẽ bắt đầu tăng tốc sản xuất trong năm 2025.

Được cái này thì mất cái kia, sản xuất HBM liên quan trực tiếp tới sản xuất DRAM, do đó tăng sản lượng HBM đồng nghĩa với khả năng sản xuất chip nhớ DRAM thông thường sẽ bị giảm. Cụ thể HBM3e tiêu thụ lượng wafer gấp cỡ 3 lần so với DDR5 để tạo ra cùng lượng bit nhất định, tính trên cùng tiến trình sản xuất. Micron là nhà sản xuất cung cấp HBM3e thương mại đầu tiên ra thị trường, do đó chiếm lĩnh cũng không phải điều khó hiểu.

Tom's Hardware
7 bình luận
Chia sẻ

Xu hướng

Nvidia dạo này bá quá bá
Cái bộ nhớ này hình như có trên mấy con card cao cấp của AMD mấy năm trước có phải ko? Nghe nói tốt lắm mà kiểu này mấy anh em gamer khó được dùng nó rồi. Hết tiền ảo đến AI làm khó ví tiền gamer.
@dlv.thickgame Hồi đó là vega 56 và 64. Dùng chơi game k hiệu quả. Giờ dùng AI mới hiệu quả được.
Dark Man
ĐẠI BÀNG
4 tháng
@Trần Thuận 208 không phải không hiệu quả mà nó là dùng dao giết trâu mổ gà

HBM sinh ra để phục vụ những cái yêu cầu băng thông cực lớn như siêu máy tính hay AI. chi phí sản xuất HBM cao hơn DRAM rất nhiều

dăm ba cái game không tận dụng được cái băng thông đó thì chả việc gì phải dùng cho game cả
Theo Nvidia thì nước lên thuyền lên theo 😆
Samsung của tụi bây đâu?!?!
@QuanLyNhaNghi ế quá nên chưa bán hết, để tự thẩm du dùng dần trên mấy con Galaxy thế hệ tiếp theo
Mày vui tính vãi

Xu hướng

Bài mới










  • Chịu trách nhiệm nội dung: Trần Mạnh Hiệp
  • © 2024 Công ty Cổ phần MXH Tinh Tế
  • Địa chỉ: Số 70 Bà Huyện Thanh Quan, P. Võ Thị Sáu, Quận 3, TPHCM
  • Số điện thoại: 02822460095
  • MST: 0313255119
  • Giấy phép thiết lập MXH số 11/GP-BTTTT, Ký ngày: 08/01/2019