Tại sự kiện SK AI Summit 2024, CEO của tập đoàn chip Hàn Quốc, SK Hynix, ông Kwak Noh-Jung đã chính thức công bố sản phẩm chip RAM HBM3E xếp chồng 16 lớp với dung lượng tối đa 48GB mỗi con chip đầu tiên trên thế giới. Dự kiến những bản engineering sample đầu tiên của SK Hynix HBM3E 16-Hi stack sẽ đến tay những nhà phát triển chip xử lý vào đầu năm 2025 tới.
Tổng hợp ngắn những tính năng cũng như công nghệ được áp dụng trong việc tạo ra một con chip nhớ xếp chồng tới 16 lớp DRAM, cũng như những công nghệ và sản phẩm chip nhớ khác, được CEO Kwak chia sẻ tại sự kiện SK AI Summit 2024:
Theo WCCFTech
Tổng hợp ngắn những tính năng cũng như công nghệ được áp dụng trong việc tạo ra một con chip nhớ xếp chồng tới 16 lớp DRAM, cũng như những công nghệ và sản phẩm chip nhớ khác, được CEO Kwak chia sẻ tại sự kiện SK AI Summit 2024:
- Kể từ thế hệ HBM4, dự báo cho thấy nhu cầu chip nhớ HBM xếp chồng 16 lớp sẽ tăng mạnh. Nhưng SK Hynix vẫn phát triển thế hệ HBM3E xếp 16 lớp để đảm bảo ổn định về mặt công nghệ, cùng lúc cho phép họ phát triển được công nghệ ghép die bán dẫn hybrid bonding.
- Quy trình Advanced MR-MUF được ứng dụng. Quy trình gia công này đã cho phép tập đoàn này sản xuất thương mại quy mô lớn những chip HBM3E xếp chồng 12 lớp.
- Trong ứng dụng, trên lý thuyết, chip HBM3E xếp chồng 16 lớp cho phép cải thiện 18% hiệu năng huấn luyện mô hình AI, vận hành nội suy các dịch vụ AI tăng 32% hiệu năng so với chip HBM3E 12 lớp.
- Cùng với HBM3E và HBM4, SK Hynix cũng đang phát triển module bộ nhớ LPCAMM 2 cho máy tính cá nhân và máy chủ đám mây, dựa trên chip LPDDR5 và LPDDR6 1cnm, tận dụng lợi thế cạnh tranh về tiêu thụ điện năng và hiệu năng xử lý.
- SK Hynix cũng đang phát triển SSD chuẩn PCIe 6.0, những SSD chuẩn doanh nghiệp dựa trên công nghệ chip nhớ QLC NAND, và bộ nhớ UFS 5.0 cho smartphone.
- Một công nghệ khác đang được phát triển có thể cho phép bộ nhớ hệ thống máy tính và máy chủ thực hiện tính toán, để vượt qua hàng rào gọi là “memory wall.” Những công nghệ như PNM (Processing Near Memory), PIM (Processing In Memory) và Computational Storage có thể giúp chính ổ cứng và chip nhớ có thể xử lý lượng dữ liệu khổng lồ lưu trữ bên trong, từ đó thay đổi cả ngành AI trong tương lai.
Theo WCCFTech