英特爾AI加速器建立模擬大腦的神經形態晶片
https://bit.ly/3iSTRoI
為了實現AI運算,每個晶片供應商都在開發AI加速器,並聲稱比其他任何競爭對手都要好
。然而,AI市場是非常多樣化的,每種產品都有自己的位置和優勢。無論是,輝達針對機
器學習的大規模平行系統,到英特爾針對數據中心推理工作負載的晶片,甚至高通針對智
慧型手機和其他行動裝置設計的影像處理和安全功能等方面嵌入式AI加速器。
實際上,AI不是一個單一市場,而是一系列不同的子市場,不能僅由一種晶片提供所有服
務。
因此,英特爾正在探索一種不同的方法,作為其當前AI加速器功能的補充,正在建構模擬
大腦的神經形態晶片。雖然,其不是唯一一個探索這種方法的公司。
與基於Von Neumann架構的傳統大規模平行架構不同的是,英特爾提出的架構是使用從一
開始就為電腦提供動力的處理元件和共享記憶體系統,正在試驗一種方法,限制許多單獨
的運算元件(具有專用記憶體單元的處理能力)並透過高速網狀網路將它們連接起來。英
特爾在其第二代Loihi神經形態晶片上,配備具有更快且更密集的Loihi 2。
通過使用密集的神經元和突觸(Synapse)等模擬生物大腦功能,英特爾希望能夠為某些
類型的AI功能建構晶片,且其功耗非常低。與傳統晶片幾十到幾百瓦相比,這一晶片幾乎
以毫瓦為單位。雖然其不能替代AI中的所有學習系統,但其在路由、排程和音頻/視頻處
理等特殊工作負載中卻更能發揮其特長。
英特爾目前不打算出售Loihi晶片。相反,其計劃建構數量有限的系統,並將其出租給可
以通過創建專門的編程和類似的增強功能來試驗和推進神經形態生態系統的組織和機構,
這些功能最終可以共享並成為開源生態系統的一部分。目前,Loihi和神經形態仍處於開
發的實驗階段,大規模部署至少需要5年以上。
在軟體部分,Lava將是一個開源環境,旨在支持神經形態代碼的建模和開發。它的目的是
在Loihi 2晶片上運行的程式。Magma則是在Loihi晶片環境上運行的代碼,並將保留為英
特爾的專屬財產(很像IA/x86指令集)。從Lava到Magma的轉換將成為在Lava環境中,固
有的更高階功能的關鍵組成部分,就像今天的C和Python等高階語言一樣。
總之,研究機構J. Gold Associates認為,通過增加包含神經形態運算的功能,英特爾正
在為愈來愈多的專用功能添加另一種工具,最終將大大加速AI處理能力。