NVIDIA chính thức giới thiệu GPU Hopper H200: GPU xử lý AI mạnh nhất thế giới

Pnghuy
14/11/2023 7:52Phản hồi: 32
NVIDIA chính thức giới thiệu GPU Hopper H200: GPU xử lý AI mạnh nhất thế giới
Tại sự kiện SC23 (Supercomputing 2023) mới diễn ra vào sáng nay, NVIDIA chính thức công bố GPU dựa trên kiến trúc Hopper mới là H200, chính là GPU chuyên về xử lý AI mạnh nhất mà loài người từng tạo ra. NVIDIA H200 có bộ nhớ HBM3e 141GB và băng thông bộ nhớ lên đến 4.8TB/s.

Nvidia GH200: GPU xử lý AI mạnh nhất hành tinh

Sự kiện SIGGRAPH 2023, nơi quy tụ những đơn vị và lập trình viên trong ngành đồ họa máy tính đã bắt đầu từ ngày 6/8 vừa rồi tại Los Angeles Convention Center. Ít giờ trước, Nvidia đã có livestream giới thiệu những công nghệ và giải pháp mới phục vụ…
tinhte.vn


[​IMG]
NVIDIA Hopper H200 GPU và GH200 là những con chip mạnh nhất từ trước đến nay của NVIDIA. 141GB bộ nhớ HBM3e của NVIDIA H200 chạy ở tốc độ 6.25Gbps/pin, có 6 stack và mỗi stack có dung lượng là 24GB. GPU H100 trước đây của NVIDIA chỉ có 80GB HBM3e và bằng thông khoảng 3.35TB/s.

NVIDIAcũng chỉ công bố hiệu năng xử lý FP8 (sức mạnh xử lý số thực dấu phẩy động FP8) của H200 là 32 Petaflops cho cấu hình bao gồm 8 GPU. Như vậy mỗi GPU H200 sẽ có sức mạnh xử lý khoảng 4 Petaflops, gần tương tự so với H100 trước đây.


Như vậy H200 sẽ nhanh hơn như thế nào so với H100? Nó sẽ tuỳ vào nhu cầu công việc, NVIDIA có ví dụ về việc chạy các mô hình ngôn ngữ lớn (LLM) như GPT-3 hay Meta Llama2 của H200 nhanh hơn 11 lần so với H100 và nhanh hơn 18 lần so với A100, lợi thế từ việc bộ nhớ được tăng lên và băng thông cũng lớn hơn. Tuy nhiên so với B100 sử dụng kiến trúc Blackwell dự kiến ra mắt vào năm sau thì H200 vẫn còn ở một khoảng cách khá xa.

Screenshot 2023-11-14 at 14.35.39.png
Bên cạnh giới thiệu bản nâng cấp cho GPU H100, NVIDIA cũng giới thiệu hệ thống GH200 mới, bao gồm “siêu GPU” H200 và “siêu CPU” Grace. Mỗi hệ thống “siêu chip” GH200 sẽ có tổng cộng 624GB bộ nhớ, trong đó sẽ có 480GB bộ nhớ LPDDR5x với 144GB bộ nhớ HBM3e, tăng từ 96GB HBM3 của GH100.

nvidia-hgx-h200.jpg
Điều quan trọng hơn cả là GH200 sẽ được trang bị trong các hệ thống HGX H200 và nó sẽ tương thích với hệ thống HGX H100 trước đó. Điều này có nghĩa rằng các hệ thống HGX H200 có thể sử dụng trong cùng một cơ sở hạ tầng của các hệ thống HGX H100 để tăng tốc hiệu suất xử lý mà không cần phải thay đổi về kết cấu.

Cuối cùng, hệ thống HGX H200 đầu tiên đi vào hoạt động là siêu máy tính Vendano tại Phòng thí nghiệm Quốc gia Los Alamos, Mỹ. Tiếp theo đó là hệ thống Vista của Trung tâm Máy tính Nâng cao Texas (TACC) cũng đạt được thoả thuận sử dụng CPU GraceGPU Hopper của NVIDIA, nhưng chưa rõ là H100 hay H200.


NVIDIA cũng giới thiệu siêu máy tính Jupiter, bao gồm 24.000 siêu chip GH200, mang hiệu suất AI lên đến 96 exaflops (có lẽ là FP8) và 1 exaflops FP64.



Tom's Hardware.

Quảng cáo

32 bình luận
Chia sẻ

Xu hướng

Chú Huang giờ ngồi hốt bạc thôi, Intel và AMD đã chậm chân trong mảng AI.
@Thanchet92 Thật sự Intel và AMD như kẻ học việc so với chuyên gia AI như Nvidia, chỉ mong họ đừng bỏ cuộc để Nvidia 1 mình 1 ngựa.
taidv1994
ĐẠI BÀNG
8 tháng
@Thanchet92 Intel thì chậm trong phần cứng hiệu năng
còn AMD thì ko đủ nguồn lực mạnh để làm phần mềm, framework AI tương thích cao, dễ viết, mở rộng như NVIDIA
laiviet
TÍCH CỰC
8 tháng
@Thanchet92 AMD đang phất lên rất nhanh khi phần mềm dần hoàn thiện. AMD được cái làm GPU nhiều RAM nên giới nghiên cứu rất thích. Siêu máy tính LUMI của Thuỵ Điển gần đây sd GPU của AMD và đang train LLM trên đó.
428293
TÍCH CỰC
8 tháng
Chắc đủ chạy pikachu 60fps
@428293 đùa kiểu thiểu năng
428293
TÍCH CỰC
8 tháng
@kungfu9999 Vâng. 1 số nước ko dc mua card để chạy pikachu 60fps ấy chứ.
clbphanmem
ĐẠI BÀNG
8 tháng
@428293 làm gì có game Pikachu 60fps nào mà một số nước? Nước nào? Nước Pikachu luôn hả =))
Xàm, chíp mạnh nhất của loài người là chip apple M nhé. mấy chip tào lao này toàn là bịp bợm
ThànhYx
ĐẠI BÀNG
8 tháng
@angle_squall Ngồi dưới đáy giếng kêu nó phải to hơn ngoài trời rồi 😆
@angle_squall Mọe. Thằng anti này lại kháy Apple là giỏi. Chip M thua con này rất xa về khoảng AI nhé, cụ thể là thua khoảng 5-10% nhưng mà nếu rút điện ra xử lý AI thì H200 gọi M bằng cụ 😁
@angle_squall Mấy con chịp này đốt điện như nước thì sao mà so với chip m. Ai không cần cắm được
Cười vô mặt
bbvc
TÍCH CỰC
8 tháng
@dấu-tên-nhưng-dấu-luôn-năm-sinh chip M tuổi j so với h200, xách dép cũng chưa đủ tư cách, đừng nói 5 10%.
qwarl
TÍCH CỰC
8 tháng
@dấu-tên-nhưng-dấu-luôn-năm-sinh rút điện ra so thì ko có tuổi luôn, con này ko có điện thì có chạy nhảy gì đc đâi mà so với chip M đc bác nhỉ😁
Jangka
ĐẠI BÀNG
8 tháng
"141GB bộ nhớ HBM3e của Nvidia tốc độ 6.25Gbps" Sao chậm dữ vậy, còn thua băng thông USB 3.1 nữa. Haha
@Jangka tốc độ 6.25Gbps/s còn usb 3..1 có 10gb /8 thì đc có 1g25/s thôi,không có chuyện thấp hơn đâu,chắc bác chủ bài note thiếu
@Jangka https://tinhte.vn/thread/nvidia-vua-gioi-thieu-gpu-hgx-h200-moi.3738328/
vào TCBC của NVIDIA xem cho chuẩn bạn ey!
@Jangka tốc độ nó khác với xung nhịp bạn ơi 😁
haichuane
ĐẠI BÀNG
8 tháng
Lại là loài người , mấy hãng khác là người sao hỏa.
@haichuane ko dùng từ đó thì đâu có tương tác, hahaha
@haichuane Thì thế giới có nhiều loài khác nữa mà!
Huang h một mình một ngựa
Quảng cáo phóng đại quá. Tốc độ xử lý dấu chấm động gần như nhau mà phán hiệu năng tăng 11 với 18 lần so với thế hệ cũ nhờ băng thông bộ nhớ tăng.
maisonhai3
ĐẠI BÀNG
8 tháng
@Chichbong0302 Dù 2 chip có tốc độ xử lý Floating Point là như nhau, nhưng nếu CPU-RAM hoặc GPU-RAM quá ít, thì sẽ nghen cổ chai ở khâu "bón data vào cho chip xử lý", thế là chip chỉ chạy được dưới khả năng thực tế của nó.

Nếu để lấy ví dụ gần gũi, không có ý cà khịa, thì chính là vụ Macbook M3 nhưng 8GB RAM, thì tốc độ thua M3 16GB RAM vài ba lần.
@maisonhai3 Thứ nhất là bạn lấy con số vài 3 lần ở đâu ra. Thứ 2 người ta mua cấu hình 8Gb ram thì người ta mặc định ước lượng chạy ứng dụng ko quá 8GB , ko thằng điên nào mua máy về chạy ram thọt cả. Thứ 3 ko ai so sánh tốc độ 2 thiết bị mà lại tét trong trường hợp để cho 1 máy bị thiếu ram xong phán máy này nhanh gấp đến 10 lần máy kia.
hoangemini
ĐẠI BÀNG
8 tháng
AI tương lai không biết thế nào, chứ giờ nó đang giúp công việc của mình rất tốt, tương lại chắc đỉnh hơn nữa. Nói chung dùng không bị phụ thuộc thấy quá ok!
A6_YoonA
TÍCH CỰC
8 tháng
@hoangemini bản chất dùng là đã bị phụ thuộc rồi mà, như kiểu google search ấy. Giờ nó cắt 1 phát là toang ngay. Nhưng phụ thuộc mức độ ít là được 😁
ryanmw
TÍCH CỰC
8 tháng
nói mạnh nhất loài ng từng tạo ra là sai, vì nvidia chắc chắn đang có con mạnh hơn chưa ra mắt . và có nhiều gpu cũng chưa lên kệ nhưng đã đc tạo ra
này đủ "scary fast" chưa ta
quá tầm hiểu biết nhưng tự hào fanboy intel từ thời agp8x. Mà so sánh vui thì nó bằng bao nhiêu 4090 nhỉ :d
Qúa khủng
Ka52
ĐẠI BÀNG
8 tháng
Cái quan trọng bây giờ là tốc độ net ở nhà có đủ nhanh ko để tải nội dung do hệ thống phía trên xử lý ra thôi. 1 lần nó ra kết quả vài trăm gb data, tải ko kịp thì ngồi chờ cũng vậy.

Xu hướng

Bài mới










  • Chịu trách nhiệm nội dung: Trần Mạnh Hiệp
  • © 2024 Công ty Cổ phần MXH Tinh Tế
  • Địa chỉ: Số 70 Bà Huyện Thanh Quan, P. Võ Thị Sáu, Quận 3, TPHCM
  • Số điện thoại: 02822460095
  • MST: 0313255119
  • Giấy phép thiết lập MXH số 11/GP-BTTTT, Ký ngày: 08/01/2019