Intel 推出 NNP-I 神經網絡處理器, Ice Lake 加上 Nervana 推理引擎
https://www.coolaler.com/threads/intel-nnp-i-ice-lake-nervana.355930/
Intel 在位於以色列海法的研發中心推出了一款針對推理運算的 Nervana 神經網絡處理
器,簡稱 NNP-I。這款處理器與常見的神經網絡處理器不同的是,它將此前發布的 Ice
Lake 處理器與 Nervana 神經網絡處理器結合,組成這款 NNP-I 處理器,但這款處理器
與 Ice Lake 處理器有很大的不同,使用 Ice Lake 基礎設計並做出了修改,將其中的
Gen 11 內顯及顯示模塊去掉,將其替換成針對推理運算的 AI 加速器。同時 Intel 還
在這款處理器上添加了 DSP 引擎,用於未針對固定功能加速器優化的算法,為其他類型
的 AI 運算提供相容性。
而 CPU 部分依舊採用多個 Intel Sunny Cove 架構的 x86 核心,但並不知道其核心數目
。Intel 產品工程總經理Oren Gershon模糊地稱他們移除了一些其他的核心為 AI 加速器
騰出額外的位置,所以這款處理器可能採用了兩個處理器內核。
Intel 提供了包括 m.2 等幾種形式的加速卡樣式,因此它可以安裝在伺服器主板的標準
m.2 接口或 PCIe 擴充卡上。與一些專為 AI 設計的定制晶片不同,這款產品幾乎兼容
所有的現代伺服器,甚至可以根據需要為伺服器添加多個 NNP-I 模塊。
Intel 也在軟體方面進行了優化,在使用 NNP-I 加速器時,伺服器可將全部神經網絡推
理運算轉移到 NNP-I 處理器中,並在任務完成時通知伺服器中的 Xeon 主處理器。而且
由於 NNP-I 處理器擁有完整的I/O模塊(擁有 PCH),所以其可以訪問處理所需的數據,
而且 Intel 稱這並不會受到 PCIe x4 帶寬的影響。
由於內部有全新的 Sunny Cove 架構的 x86 內核,所以 NNP-I 也有 AVX512 指令集,支
援 VNNI 深度學習指令,所以它技術適用於任何類型的 AI 負載,Intel 也提供了編譯器
,為 NNP-I 加速器提供定制代碼。如 PyTorch 及 TensorFlow 等機器學習框架,NNP-I
加速器可以幾乎無改動的運行支援這些框架的代碼。
Intel Ice Lake 處理器的 TDP 為28W,而 m.2 接口有15W的功耗限制,但由於其可以插
在 PCIe 擴充卡上,所以 NNP-I 加速器可以運行在更高的功耗下,以提供更好的性能。
而具體性能方面 Intel 並沒有透露,但 Intel 已經向早期客戶提供樣品,並在今年晚些
時候大批量生產。
當某廠在吹噓IPC進步跟功耗時,i皇已經在認真搞神經網路了了,未來神經網路智能AI才是重頭戲
還有最強指令集 AVX512 光這條A廠又輸慘慘,10nm這代只要全面支援又把A甩在後頭
謝謝intel推動世界進步