臺灣科技巨頭 採全球首批搭載NVIDIA Grace CPU系統設計
華碩(ASUS)、富士康工業互聯網(Foxconn Industrial Internet)、技嘉科技(GIGABYTE)、雲達科技(QCT)、美超微(Supermicro)與緯穎科技(Wiwynn)預計將從2023年上半年開始推出數十款伺服器。搭載Grace的系統將加入x86與其他Arm架構伺服器的陣容,爲客戶提供多種選擇,以提高資料中心的運作效能與效率。
NVIDIA超大規模與高效能運算部門副總裁Ian Buck表示,市場上出現一種全新型態的資料中心,即處理和提煉巨量資料以產出智慧的AI工廠,而NVIDIA正與臺灣的合作伙伴密切合作,共同打造推動這項轉變的系統。由我們的合作伙伴推出並搭載Grace超級晶片的全新系統,將把加速運算的強大實力帶進全球嶄新的市場與產業中。
即將推出的伺服器採用四種全新的系統設計,並搭載NVIDIA於前兩屆GTC大會上宣佈推出的Grace CPU超級晶片與Grace Hopper GPU超級晶片。2U外形設計爲原始設計製造商和原始設備製造商提供發展藍圖和伺服器基板,以便快速將用於NVIDIA CGX雲端遊戲、NVIDIA OVX數位孿生及NVIDIA HGX AI與高效能運算平臺的系統推向市場。
兩項NVIDIA Grace CPU超級晶片技術能夠在多種系統架構下,處理衆多運算密集型的作業負載。
Grace CPU超級晶片內含兩個CPU晶片,以NVIDIA的NVLink-C2C互連技術相互連結,具有多達144個高效能ArmV9核心並結合支援向量擴充指令集,以及1TB/s的記憶體子系統。這項突破性設計與當今頂尖的伺服器晶片相比,其可提供最高的效能表現,以及兩倍的記憶體頻寬與能源使用效率,藉以滿足高效能運算、資料分析、數位孿生、雲端遊戲和超大規模運算等應用中最嚴苛的需求。
Grace Hopper GPU超級晶片則是在一個整合式模組內,以NVLink-C2C互連技術將NVIDIA Hopper GPU與NVIDIA Grace CPU串連起來,用於解決高效能運算和超大規模AI應用的處理需求。透過NVLink-C2C互連技術,將Grace CPU的資料傳輸至Hopper GPU的速度較傳統CPU快15倍。
Grace CPU超級晶片與Grace Hopper GPU超級晶片伺服器設計組合包含採用單基板的系統,具有單路、兩路和四路配置,可用於四種特定作業負載的設計,伺服器製造商可依客戶需求進行客製化調整。
NVIDIA正在擴大NVIDIA認證系統計劃的規模,將納入搭載NVIDIA Grace CPU超級晶片及Grace Hopper GPU超級晶片的伺服器,同時包括使用x86 CPU的系統。預期在合作伙伴的系統供貨不久後,將推出首批OEM伺服器認證。
Grace伺服器產品組合已針對NVIDIA豐富的運算軟體堆疊完成最佳化調整,包括NVIDIA高效能運算、NVIDIA AI、Omniverse與NVIDIA RTX。