來講一個故事好了 Robert G. Gallager在1960透過類神經網路啟發
根據Message Passing 寫了一個叫做LDPC的更正碼 根據他的paper理論可以有效
接近Shannon bound 當時被一堆人視為是一個垃圾paper 因為當時效能比Turbo-code
還爛 結果在2000年初 因為硬體和記憶體效能大增 這算法突然變成主流
才還給這老兄一個公道 所以算法有時候太先進 硬體不支援這也是個問題
時間回到1989你看當年和藹可親的Yann Lecun還在認真做學問的時候 那時候要跑
一個CNN架構有多困難
https://www.youtube.com/watch?v=FwFduRA_L6Q
現在連一個高中生都會寫MNIST簡單CNN堆疊 這就是因為前輩的累積寫了一堆Library
和硬體的邁進 你知道在2015前寫這些Deep Learning框架還是一堆啥鬼Theano
甚至還要去碰cuda 更或者要去compile Caffe這些鬼玩意 現在框架在CUDA生態圈
發展得很成熟了 套一句巴克利的話 連他阿罵都知到如何寫pytorch 去訓練MNIST
手寫數字
啊 你要可以說 那其他家也可以這樣搞自己的AI eco system啊 也是可以啦
i皇一直都想這樣幹 他們開發了oneAPI Deep Learning Library但我到現在還是不會用
像蘇媽就比較實際點 可能會瞄準inference這塊 畢竟你訓練完後的Model
可以在不同平台去deploy 畢竟deploy
就不會像在training時候 各種開發得吃NVIDIA eco system 在deploy各種模型
只要能轉成c/c++代碼 就不在需要像以前training一樣很吃eco system 同時
在優化inference時候 不同計算系統可以針對4bit/8bit/16bit加速
像Q社就開發了許多Low Level API 專門設計給自家NPU使用 可以用來優化轉到他們
系統上的deployment 上
NV賣的就是鏟子 當年NV在3D顯示卡和ATI大戰時候也是每半年到一年瘋狂提升3D效能
https://www.youtube.com/watch?v=TeJ2IFae2-0
https://www.youtube.com/watch?v=JsVfKeJKJu0
如果時間回到199x 當3D Render演算法出現時候 照你邏輯 你應該覺得為啥要買
啥鬼N家股票 買3dfx這家公司股票就對了 就好啦 畢竟誰都可以做遊戲顯卡 對吧!!!!
※ 引述《zuvio (zz)》之銘言:
: 我發現很多人陷入一個迷思
: 能做電腦的公司這麼多家
: 為什麼AI一定要靠NV才能用
: chatgpt就不是靠NV起家的啊
: 也是有其他公司會做伺服器晶片
: 說不定intel德儀之後有更好的工業伺服器晶片屌打NV
: 現在不知道為什麼很多人覺得AI是建構在NV的上頭
: 買一堆NV相關企業的產品
: 但實際上AI根本就是軟體
: 像google搜尋引擎一樣的軟體
: 根本不一定需要哪間公司的伺服器才能做
: 隨便一家有做伺服器的都能用好嗎
: 之前挖礦區塊鏈那些公司也能做AI好嗎
: 所以這波AI真的在亂漲,不知道誰說只有NV能搞AI