[新聞] AI晶片廠盼FP8格式標準化

作者: ynlin1996 (Kennylin)   2022-07-13 11:54:33
AI晶片廠盼FP8格式標準化
https://bit.ly/3z1uhWX
2022年3月,輝達(NVIDIA)推出了第一款基於全新Hopper架構的GPU—GH100,其目標市
場是高效能運算(HPC)和AI工作負載。對AI工作負載更重要的是,GH100支持8位元浮點
處理格式(FP8)。兩個月後,競爭對手英特爾也推出了採用FP8格式的第二代AI訓練晶片
Gaudi2。
FP8格式之所以重要的原因有很多,其中最重要的是,AI推理之間存在一種分裂,在整數
格式(通常為INT8,但有時為INT4)以低精確度完成,在AI訓練以FP16、FP32或FP64精確
度完成,在HPC以FP32或FP64精確度完成。輝達和英特爾都認為FP8不僅可以用於推理,在
某些情況下還可以用於AI訓練,從而從根本上提高加速器的有效吞吐量。
這真的很重要,因為在浮點和整數格式之間來回切換是一件令人頭疼的事情,如果能讓所
有內容都停留在浮點中變得容易很多。此外,在未來的某個時候,如果推理轉移到8位FP8
甚至可能是4位FP4格式,這意味著致力於整數處理器的有價值晶片資產可以被釋放並用於
其他用途。
2022年6月,Graphcore研究發展低精確度浮點格式卓越性能,以及其能降低AI訓練中功耗
的長期好處。低精確度數字格式可能是大型機器學習模型的關鍵組成部分,其不僅提供了
最先進的準確性,同時減少了對環境的影響。特別是,通過使用FP8算術之能量效率比起
FP16提高多達4倍,比FP32提高多達16倍。
如今Graphcore正在鼓吹IEEE針對AI設計採用FP8格式,並成為所有廠商都可以使用的標準

超微和高通也支持Graphcore的計劃,高通認為FP8格式,不僅可為推理和運算提供了顯著
的性能和效率提升,還可以幫助降低雲端和邊緣之訓練和推理成本。超微預計將在即將推
出的Instinct MI300A APU中支持FP8格式。至於SambaNova、Cerebras和Groq等AI晶片製
造商也將因為這一趨勢而受益。
換言之,FP8可讓AI產業有機會接受“AI-native”標準,以及跨系統的推理和訓練互操作
性。在 IEEE正式製定標準之前,Graphcore將向業內其他人提供其規範。
總之,隨著深度學習應用程式複雜性的不斷增加,機器學習系統的可擴展性也變得不可或
缺,大型分散式模型的訓練帶來了許多挑戰。在這種情況下,使用有效的FP8數位格式至
關重要,因為在處理器之間交換資料時,它可以提高運算效率和通訊效率,進而提高功率
效率。

Links booklink

Contact Us: admin [ a t ] ucptt.com