現在還來得及 快上HBM的車 https://disp.cc/b/Stock/gMAJ
https://ptt.reviews/Tech_Job/E.FXGSvRMUy5f0
且HBM利潤很高 此篇底下有人分享哪家卷商可以買韓股 QQ
https://www.nstock.tw/news/article_p2?id=M.1694041375.A.2B3
主要是高速頻寬記憶體是現在AI架構裡面很重要的一塊 自從多模塊大模型開始後
記憶體常常會被操爆 常常寫算法要被迫用迭代方式去減少記憶體 但這樣速度就會變慢
這也是為何最近流行的Mamba算法架構 目標是要取代Transformer
現在幾乎所有晶片都要HBM 目前看到的架構有
i皇Falcon Shores 老黃旗下所有HPC產品 蘇媽MI300/MI400
Google TPU Amazon Trainnium2
你想到的大公司自家AI晶片不論是做Training或者Inference 都有用HBM
因為上述原因 你可以看到韓廠在瘋狂的蓋廠HBM相關發展 因為市場太大了 幫台廠QQ
HBM第一代是當年蘇媽跟海力士一起發明的大絕招 拿去打老黃的顯卡用 結果因為報價
過高被棄用 但老黃回頭就馬上抄了這架構 找三星弄到P100上
然後我也研究了美光 目前看起來 恩恩恩恩恩 不好說QQ