作者:
sxy67230 (charlesgg)
2025-01-28 08:39:08※ 引述 《LinuxKernel》 之銘言:
: 這幾天被DeepSeek洗板,美股盤前也被炸到血流成河
: 但不禁好奇,為什麼台灣做不出DeepSeek這種等級的東西
: 早前機器學習時代,台灣學術界還有LIBSVM可以說嘴
: 但到了GenAI/LLM時代,好像就沒印象有什麼厲害的產出了?
: 幾年前AI Labs橫空出世,似乎也沒聽到什麼太大的impact?
: 問路人可能只對什麼協同帳號分析有印象...
: 究竟是什麼原因,讓台灣在這波GenAI/LLM熱潮顯得落後?
LibSVM早就是上古以前的東西了,現在做分類大家也都說拿好的backbone基礎大模型再接一
層硬train一個baseline了,像Meta、谷歌這些基礎模型再預訓練的時候就想盡辦法拿到一
堆沒看過的數據語料圖片設法先讓模型從複雜數據中學會抽基礎特徵,這樣後續你做分類根
本不需要做什麼kernel function 就有能力擬合任意函數。如果你發只是純SVM的東西到現
在ICCV等應用類的頂會只是刷分大概會被直接reject到爆,沒跟這些基礎大模型比根本沒插
入點。
然後我印象中前幾年好像國科會有說要搭數據中心但現在也沒下文,但中國早在2012年人家
就幾億人民幣再投入這塊的大專院校,然後扶持巨頭軟體企業就不止幾億人民幣了,所以能
取得國際之間AI競賽的T1等級也是不意外就是了。
不然LLM出現幾年其實多半台灣還是只能拿Meta的llama來調,人家chatGPT剛問世其實就自
研了chatGLM,後續還有千問、IntermLM跟相關多模態模型,後續還自己弄出MiniCPM這類多
模態小鋼炮還被印度仔偷抄不承認鬧上國際。
不過值得關注的是號稱封閉的中國這幾波LLM他們的科技巨頭都是選擇開源,相比開放的美
國中自稱Open的OpenAI卻是close的,到最近o1 OpenAI根本連技術報告裡面都不敢提方法,
而DeepSeek R1確實從模型到報告都完整揭露訓練細節。