原文標題:NVIDIA推核彈級GPU 搭台積4奈米製程「號稱20個可撐全球網路量」
(請勿刪減原文標題)
原文連結:https://reurl.cc/5GnlyV
(網址超過一行過長請用縮網址工具)
發布時間:2022-03-23 14:20
(請以原文網頁/報紙之發布時間為準)
原文內容:記者高兆麟/綜合報導
顯示卡大廠輝達(NVIDIA)執行長黃仁勳在22日登場的年度GTC大會上,重磅宣布新一代資
料中心Hopper架構繪圖處理器(GPU)NVIDIA H100,將採用台積電4奈米製程,效能大大提
升外,黃仁勳更說,只要20個 H100 GPU 就能撐起全世界的網路流量,顯見其效能之高。
為推動下一波人工智慧 (AI) 資料中心的發展,輝達宣布推出採用 NVIDIA Hopper 架構的
新一代加速運算平台,效能較上一代平台呈指數級成長。這個以美國電腦科學家先驅 Grace
Hopper 命名的全新架構,將接替兩年前推出的 NVIDIA Ampere 架構。
NVIDIA 亦宣佈推出首款採用 Hopper 架構的 GPU 產品 NVIDIA H100,這款 GPU 封裝了 80
0 億個電晶體,是全球最大且效能最強大的加速器,具突破性的功能,例如革命性的 Trans
former Engine 及具高度擴展性的 NVLink 互連技術,可用於推動極大規模的 AI 語言模型
、深度推薦系統、基因組學和複雜的數位孿生等領域的發展。
NVIDIA執行長黃仁勳表示,資料中心將成為 AI 工廠,用來處理海量資料並從中提煉出寶貴
的智慧。NVIDIA H100 是全球 AI 基礎設施的引擎,讓企業得以加速推動各項 AI 業務的進
展。
NVIDIA表示,H100 擁有 800 億個電晶體,採用台積電 4奈米製程、專為滿足 NVIDIA 加速
運算需求而設計,在加速 AI、高效能運算、記憶體頻寬、互連和通訊方面具有重大進展,
包括每秒近 5TB 的外部連接速度。H100 是首款支援 PCIe Gen5 及首款使用 HBM3 的 GPU
產品,提供每秒 3TB 的記憶體頻寬。20 個 H100 GPU 便足以支撐全世界的網路流量,讓客
戶得以運行先進的推薦系統和大型語言模型,即時使用各項資料進行推論。
H100 的多項技術創新擴大了 NVIDIA 在 AI 推論和訓練的領先地位,使 NVIDIA 能夠利用
巨大的 AI 模型做到即時和沉浸式應用。H100 讓聊天機器人可以使用全球最強大的單體 tr
ansformer 語言模型 Megatron 530B,其傳輸量超過前一代產品達 30 倍,同時滿足即時對
話式 AI 所需的次秒級延遲。H100 同時讓研究人員和開發人員能夠訓練像是 Mixture of E
xperts 這類大規模模型,包含 3,950 億個參數,能將速度提高達九倍,將訓練時間從過去
所需的數週減少到數日便能完成。
NVIDIA H100 可以部署在各類型的資料中心內,包括企業內部、雲端、混合雲和邊緣。預計
今年稍晚透過全球各大雲端服務供應商及電腦製造商供貨。
NVIDIA 第四代 DGX 系統 DGX H100 搭載八個 H100 GPU,可在全新 FP8 精度下提供 32 pe
taflops 的 AI 運算表現,這個規模足以滿足大型語言模型、推薦系統、醫療研究及氣候科
學的大規模運算需求。
透過第四代 NVLink 技術連接 DGX H100 系統中的每個 GPU,能提供每秒 900GB 的連接速
度,高出前一代產品 1.5 倍。NVSwitch 技術讓八個 H100 GPU 能透過 NVLink 連接。一台
外部 NVLink 交換器可以連接新一代 NVIDIA DGX SuperPOD 超級電腦中多達 32 個 DGX H1
00 節點。
Hopper 已經獲得各大雲端服務供應商的支持,包括阿里雲、Amazon Web Services (AWS)、
百度智能雲、Google Cloud、Microsoft Azure、Oracle Cloud 和騰訊雲,這些業者計畫將
提供基於 H100 的執行個體。
心得/評論:老黃本次與台積電合作,採用台積電四奈米技術開發的產品,預期能帶來更高的
效能運用,以及更低的能源消耗※必需填寫滿30字,無意義者板規處分