Tham dự Tech Lounge

Tham dự Tech Lounge


Intel ra mắt Xeon Scalable thế hệ 4 “Sapphire Rapids” cùng CPU và GPU Max Series

Lư Thế Nghĩa
11/1/2023 12:23Phản hồi: 28
Intel ra mắt Xeon Scalable thế hệ 4 “Sapphire Rapids” cùng CPU và GPU Max Series
Intel chính thức cho ra mắt các vi xử lý Xeon Scalable thế hệ 4 “Sapphire Rapids”, CPU Xeon Max “Sapphire Rapids HBM” và GPU Data Center Max “Ponte Vecchio”. Sản phẩm mới của Intel cung cấp hiệu năng vượt trội về trung tâm dữ liệu, tiết kiệm năng lượng, bảo mật và tính năng AI mới. Ngoài ra, CPU Xeon Scalable thế hệ 4 mang lại hiệu năng trung bình trên mỗi watt điện hiệu quả hơn 2.9 lần so với thế hệ trước, giảm tổng chi phí sở hữu đến 66%.

Sapphire Rapids được xem là vi xử lý trung tâm dữ liệu bền vững nhất của Intel, cung cấp cho doanh nghiệp nhiều tính năng quản lý năng lượng và hiệu năng để tối ưu hóa việc sử dụng nguồn tài nguyên CPU. Khác biệt với những vi xử lý trung tâm dữ liệu khác trên thị trường hay những vi xử lý đang được các doanh nghiệp sử dụng, dòng Xeon thế hệ 4 mở rộng đáng kể chiến lược và hướng tiếp cận của Intel trong việc đáp ứng nhu cầu của doanh nghiệp và ưu tiên ứng dụng.

intel-xeon-scalable-4th-sapphire-rapids-hbm-max-ponte-vecchio-tinhte-1.jpg

Hiện nay có hơn 100 triệu CPU Xeon đang được sử dụng trên thị trường, xuất hiện trong các máy chủ với phần mềm tại chỗ chạy các dịch vụ IT, bao gồm các mô hình kinh doanh as-a-service mới, thiết bị mạng quản lý lưu lượng truy cập Internet, máy trạm gốc không dây ở biên, hay các dịch vụ đám mây. Xeon Scalable thế hệ 4 tích hợp các bộ tăng tốc (accelerator) hoàn chỉnh hơn so với bất kỳ vi xử lý nào trên thế giới, mục đích giải quyết những bài toán quan trọng nhất của doanh nghiệp về AI, phân tích, mạng lưới, bảo mật, lưu trữ và HPC.

intel-xeon-scalable-4th-sapphire-rapids-hbm-max-ponte-vecchio-tinhte-4.jpg


Khi tích hợp hoàn toàn các bộ tăng tốc vào Sapphire Rapids, Intel có thể cung cấp khả năng tiết kiệm điện năng ở cấp độ nền tảng, giảm thiểu nhu cầu sử dụng bộ tăng tốc rời bổ sung. Chế độ Tối ưu Điện năng có thể tiết kiệm 20% điện năng tiêu thụ với khả năng tác động đến hiệu suất chưa đến 5% trên các ứng dụng được chỉ định. Những cải tiến về tản nhiệt khí và chất lỏng cũng giúp giảm đáng kể tổng năng lượng tiêu thụ của trung tâm dữ liệu. Trong quá trình sản xuất Xeon thế hệ 4, vi xử lý mới của Intel được ra đời với 90% điện tái tạo hoặc hơn tại các nhà máy của Intel với các cơ sở cải tạo nước hiện đại.

intel-xeon-scalable-4th-sapphire-rapids-hbm-max-ponte-vecchio-tinhte-5.jpg

Intel Xeon thế hệ 4 có hiệu năng đào tạo và suy luận AI theo thời gian thực trên PyTorch framework nhanh hơn 10 lần nhờ bộ tăng tốc Intel Advanced Matrix Extension (AMX). Xeon Max mở rộng hơn nữa dựa trên những khả năng này để xử lý ngôn ngữ tự nhiên, khả năng tăng tốc lên đến 20 lần trên các mô hình ngôn ngữ lớn. Bộ phần mềm AI do Intel cung cấp giúp lập trình viên có thể lựa chọn sử dụng bộ công cụ AI, vừa tăng năng suất và rút ngắn thời gian phát triển. Bộ công cụ này đã được xác thực với hơn 400 mô hình AI máy học và học sâu trong các trường hợp sử dụng AI phổ biến nhất ở mọi phân khúc kinh doanh.

intel-xeon-scalable-4th-sapphire-rapids-hbm-max-ponte-vecchio-tinhte-3.jpg

Được tối ưu chuyên biệt cho hiệu năng cao, kết nối độ trễ thấp và ứng dụng biên đám mây, Xeon thế hệ 4 cung cấp gấp đôi dung lượng truy cập mạng vô tuyến ảo hóa (vRAN) mà không làm tăng năng lượng tiêu thụ. Với các ứng dụng đòi hỏi 5G, các bộ tăng tốc tích hợp hỗ trợ tăng lưu lượng và giảm độ trễ. Điều này giúp cho các nhà cung cấp dịch vụ truyền thông tăng gấp đôi hiệu suất trên mỗi watt điện để đáp ứng nhu cầu quan trọng về hiệu năng, mở rộng và tiết kiệm năng lượng.

Intel Sapphire Rapids và Intel Max Series tích hợp CPU và GPU với hệ sinh thái phần mềm mở của oneAPI để xử lý các ứng dụng đòi hỏi cao về tính toán trong HPC và AI, cũng như giải quyết những vấn đề thách thức nhất trên thế giới hiện nay. Sapphire Rapids HBM là vi xử lý x86 đầu tiên và duy nhất trang bị 64 GB HBM2e (High Bandwidth Memory), tăng tốc nhiều ứng dụng HPC, hiệu năng cao hơn 3.7 lần khi chạy các ứng dụng thực tiễn như mô hình hệ thống năng lượng và Trái Đất. Trong khi đó Ponte Vecchio sở hữu hơn 100 tỉ bán dẫn, đóng gói dạng lát gạch với 47 tile, hướng đến xử lý những ứng dụng nặng như vật lý, dịch vụ tài chính và khoa học đời sống. Hệ thống kết hợp giữa Sapphire Rapids HBM và Ponte Vecchio cho ra hiệu năng cao hơn 12.8 lần so với thế hệ trước khi chạy giả lập động lực học phân tử LAMMPS.

intel-xeon-scalable-4th-sapphire-rapids-hbm-max-ponte-vecchio-tinhte-2.jpg

Intel Xeon Scalable thế hệ 4 được tạo thành từ 4 tile sản xuất trên tiến trình Intel 7 với công nghệ đóng gói EMIB (Embedded Multi-die Interconnect Bridge), hỗ trợ DDR5, tăng cường băng thông I/O với PCIe 5.0 và kết nối CXL (Compute Express Link) 1.1. Kiến trúc modular trên Sapphire Rapids cho phép Intel cung cấp nhiều biến thể CPU với gần 50 lựa chọn khác nhau, đáp ứng cụ thể nhiều nhu cầu đặc thù của khách hàng hay ứng dụng. Những lựa chọn biến thể gồm có mức xung, lượng nhân, tổ hợp các bộ tăng tốc, gói năng lượng và bộ nhớ sao cho phù hợp nhất.

Quảng cáo



Intel là nhà cung cấp vi xử lý duy nhất trang bị tính năng cách ly ứng dụng cho máy chủ trung tâm dữ liệu thông qua Intel Software Guard Extensions (SGX), qua đó hạn chế những lỗ hỏng tấn công bề mặt nhỏ nhất cho điện toán bảo mật trong nhiều môi trường. Intel Trust Domain Extensions (TDX) - công nghệ cách ly máy ảo - giúp chuyển các ứng dụng hiện có đến môi trường bảo mật. Intel TDX sẽ có trên Microsoft Azure, Alibaba Cloud, Google Cloud và IBM Cloud.
28 bình luận
Chia sẻ

Xu hướng

mrkahn
ĐẠI BÀNG
một năm
Chóng mặt quá
Đợt này không thấy so sánh với epyc gen 4 nhỉ =))
mushu
TÍCH CỰC
một năm
@Dx.DarkKnight AMD EYPC 7773X đắp 768MB L3 cache rồi. Nên cái 1GB không xa đâu.
@mushu Đợt trước intel khoe đập chết ăn thịt epyc gen 3, giờ gen 4 ra rồi chắc sợ dân tình chửi nên k dám lố nữa. Tình hình này intel khéo phải 5 năm nưã mới ngang được, amd thiết kế multi die so với mono die của intel thì cả hiệu năng, yeild đều ăn chặt
@Dũng flop Amd mới giới thiệu con amd epyc 4th . Mạnh gấp 3 lần so với con intel xeon 8380 . Điện năng tiêu thụ ít hơn , thải ít khí Co2 ít hơn . Amd còn công bố 15 máy chủ intel xeon 8380 chỉ bằng 5 máy chủ chạy bằng amd epyc 4th . Thậm chí con intel xeon xài tiến trình 7nm tuổi gì so với epyc 3rd nói chi con epyc 4th . Amd vừa công bố CES 2023
Ghê thật
Riêng em GPU Ponte Vecchio này đã có số bóng bán dẫn cao khiếp, nếu cộng thêm CPU Xeon mới này thì bộ combo cho Server sẽ chứa số transistor khủng…
- Intel Ponte Vecchio 100 tỷ transistor
- RTX 4090 76,3 tỷ transistor
- AMD RX 7900 XTX 57 tỷ transistor
- Intel 13900K 14,2 tỷ transistor
- AMD 7950x 9,9 tỷ transistor
- Apple M2 20 tỷ transistor

Nghiên cứu của Intel: Đến năm 2030, chip bán dẫn sẽ có hàng nghìn tỷ transistor: https://tinhte.vn/thread/nghien-cuu-cua-intel-den-nam-2030-chip-ban-dan-se-co-hang-nghin-ty-transistor.3603081/
@XuyenViet2019 Apple M1 Ultra 114 billion transistor
mushu
TÍCH CỰC
một năm
@XuyenViet2019 Intel Ponte Vecchio nó ra đời để cạnh tranh ở mảng HPC với Nvidia GH100 và AMD MI300 nên nhiều bóng bán dẫn là bình thường. Con AMD MI300 còn 146 tỷ.
@eddyanh104 M1 Ultra không chỉ mỗi CPU mà còn cả GPU, RAM, ổ cứng và 1 số phần khác nữa. Còn cái Intel Ponte Vecchio này chỉ là GPU thôi mà 100 tỷ transistor là quá kinh khủng.
@nghaimin Thế cho hỏi Kích thước chip của riêng cái con GPU Ponte Vecchio bao nhiêu, còn của Apple M1 Ultra bao nhiêu ? Để biết cái nào nhồi transistor nhiều hơn thì phải so cả kích thước để biết cái nào nhiều hơn chứ, chỉ biết là nó gộp còn kích thước thì vứt à ?
@TienMinhTran Nhiều hay ít transistor thì đếm số lượng rồi còn đâu, quan tâm gì kích thước lớn hay to. M1 Ultra là 1 khối thống nhất, không thể tách riêng phần nào ra vì nếu tách ra nó sẽ không còn là nó nữa. Còn GPU Ponte Vecchio là 1 linh kiện rời.
Tu9a2
ĐẠI BÀNG
một năm
Ko chơi với AWS, lạ nhỉ.
Huấn luyện AI rất được lợi từ dòng Xeon gen 4 này. Ngoài AVX 512 ra giờ còn thêm AMX nữa
@nghaimin huấn luyện ai dùng mấy npu chuyên dụng mạnh hơn mấy avx 512 thím ơi. cái kia có thể mở rộng bao nhiêu npu chứ ko cố định trong cpu 1 phần như intel.
@ragefighter Phần nào CPU làm được thì cứ làm thôi, đâu nhất thiết cứ phải dồn cho npu riêng. Tập lệnh này đã được nhúng ở cấp độ phần cứng, có năng lực xử lý các dữ liệu deep learning. Mà AVX 512 không chỉ có dùng cho AI hay deep learning mà còn nhiều tác vụ nặng đô khác nữa. Chả phải tự nhiên mà ngay cả AMD Zen 4 cũng áp dụng tập lệnh này. Bây giờ huấn luyện AI người ta dùng đủ kiểu kết hợp, từ GPU, CPU, NPU, vv chứ đâu phó mặc cho riêng 1 cái nào
@nghaimin giờ xài chuyên thôi hiệu quả cao. chứ mấy cpu ko chuyên có thêm tập lệnh này cũng kiểng vì hiệu năng ko cao. thím xem mấy server cho thuê huấn luyện ai toàn gpu hay npu chuyên ko ah. hiệu quả mấy con đó cao hơn cpu nhiều. đa phần mấy siêu máy tính cũng dùng cpu chạy app rùi quăng gpu xử lý
Chip rác này EYPC của AMD ỉa cái là trôi tận đâu luôn
14 la lô mét chứ? Đầu bảng có khác, mạnh mẽ như máy cày
Chạy sever yếu vcl ra, dc cái về vn chạy máy ảo cày game mobile thì chip xeon của intel vẫn là trùm 😆
nhìn số chân hoa cả mắt, nhồi thế này mà thông số ko bằng con EPYC ra năm ngoái nữa nhỉ.
Quảng cáo à.

Xu hướng

Bài mới









  • Chịu trách nhiệm nội dung: Trần Mạnh Hiệp
  • © 2024 Công ty Cổ phần MXH Tinh Tế
  • Địa chỉ: Số 70 Bà Huyện Thanh Quan, P. Võ Thị Sáu, Quận 3, TPHCM
  • Số điện thoại: 02822460095
  • MST: 0313255119
  • Giấy phép thiết lập MXH số 11/GP-BTTTT, Ký ngày: 08/01/2019