[情報] 英特爾AI晶片NNP趕2017年底前出貨
http://bit.ly/2zok5pJ
英特爾2017年10月17日宣布,用於支援人工智慧(AI)應用的「Nervana神經網絡處理器
」(Intel Nervana Neural Network Processor,NNP)晶片(以前稱:Lake Crest),將
於今年(2017)底前開始出貨。
由於,英特爾去年(2016)收購晶片新創公司Nervana Systems,以加速AI晶片開發。之前
,未能提供AI優化晶片,英特爾失掉了沃爾瑪等重要客戶,因需要能支援其內部數據中心
深度學習任務的產品,所以只能轉向採用輝達(Nvidia) AI晶片。目前該市場幾乎是輝
達的天下。
英特爾宣稱Nervana™神經網絡處理器(NNP)將重新定義AI 晶片(AI Silicon)。機器學
習和深度學習正在迅速成為最重要的計算工作負載。可從客戶的數據中提取有意義的見解
,並對英特爾的晶片組合進行更改,以提供卓越的機器學習性能。英特爾分享了神經網絡
處理器也是深度學習(Deep Learning)新型晶片Nervana™NNP之背後動機和設計概念。
新記憶體架構旨在提高矽晶片最大運算的利用度(New memory architecture designed
for maximizing utilization of silicon computation)
矩陣乘法(Matrix multiplication)和卷積(convolutions)是深度學習核心的一些重要原
語。由於,不同的需求也將影響這些運算工作負載方式,因為操作和數據移動在很大程度
上是先天知道的。因此,Intel Nervana NNP在晶片儲存器上並沒有標準的緩存層次結構
,而是由軟體直接來管理。更好的記憶體內存管理使晶片能夠在每個裸片上實現大量計算
的高水平利用,這意味著為深度學習模型需要更快的訓練時間來達成。
實現可擴展性AI模型的新水平 (Achieve new level of scalability AI models)
採用高速晶片和對外互連設計,Intel Nervana NNP可實現大量雙向數據傳輸。而且,設
計目標是真正實現大量可並行處理的模型,其中神經網絡參數分佈在多個晶片上。這使得
多個晶片就像一個大型虛擬晶片,允許客戶從其數據中獲取更多有價值的判斷力。
高度數值並行性:Flexpoint
在單一晶片上的神經網絡運算,可能受制於電力來源和記憶存儲器頻寬。為了實現神經網
絡工作負載能有更高的吞吐量,除了上述記憶存儲創新之外,英特爾還發明了一種名為
Flexpoint的新數字格式。Flexpoint允許將標量計算(scalar computations)放入為定點
乘法和加法(fixed-point multiplications and additions),同時允許在較大動態範圍
內使用共享指數(shared exponent)。由於,每個電路(circuit)是較小的,將導致了晶片
的並行性(parallelism)大幅度增加,同時降低了每次計算的功率。
http://bit.ly/2zok5pJ