Re: [請益] AI到底是遇到什麼問題?

作者: neo5277 (I am an agent of chaos)   2024-08-03 04:07:53
雖然這版是投資版,但是我覺得技術問題,還是先跟投資切開來比較好一點。
昨天還是前天也在八卦回了一篇,內容應該差不多。
這篇可盡可能精準一點。
首先呢,AI這個領域的底層,就是計算大家都已經知道了。
這幾年分析師說爛的LLM,全名是大型語言模型,基本上最基本款是利用
機器學習演算法,一個單元一個單元組成神經網絡的變形決策樹。
LLM,只是他的一小部分應用,根據問題的不同,去設計不同演算法,整理不同資料
做ETL,又對於transfermer 這個特殊模型模式來去做預先訓練來產出,基本上撇除掉
MOE多專家模型,還有多模態的版本,他真的就是一個很強的計算機器然後拿來做
文字接龍跟翻譯,如果沒有其他餵養的"知識",他回答的就有侷限性,可以自己去拉
其他台灣幾間的模型玩玩,而文字這塊,因為透過字詞嵌入轉向量的技術讓電腦可以計算
理解,跟去求餘弦,讓模型對於聚類,有更好的效果。
一樣的過程,你可以,將任何連續的異質資料,根據這個路徑,餵養給這後面的演算法
神經網路,經過大量的時間,大量的資料,大量的能源消耗會有一個初步結果。
你再去微調,他的確可以解決很多問題,取代很多人力,但他需要燒錢,燒時間。
接下來的東西就跟本版有關係了,我可以直接拿我八卦的文來剪貼。
"理想很豐滿,現實很骨感,infra貴,訂閱現金流沒有多少長進。
都還在吹,還在想拉貨,當董事會跟股東看不到錢,CEO能挺住做決策多久?
"LLM"目前真實應用場景薄弱,你要享受AI模型優點,需要針對你的應用情境
特製,特殊資料ETL,特殊訓練,訓練成效跟時間,資料量,成本成正比。
除了to B 沒多少人可以享受到這種邊際效應,再來換一種需求你要重新設計模型
驗證,訓練,SLM的模型,可以多元集群,一般人可用,只是就像丟一個低配版賈維斯
給你,不是每個人都需要,大部分最終只會變成,聰明一點的SIRI,跟生成軟體。
這點現在openai就做得不錯了,也不是一定要綁在阿婆手機上。
這個世界情勢看下去,這些新出來的AI模型最後的發展跟落地最有辦法回本的領域。
就是戰爭武器,很多已經開始做了,數位孿生,除了可以模擬工廠還可以用來模擬跟訓練
啥,又是高收益的其實很明顯。
順跑單獨一個7B模型,大概一張4070ti 12g .64g ram 13700k可以很順了
但你要跑70b 大概要四張以上,你要跑MOE 多專家版本又要更高,你要多模態
還要再更高,toB的商務需求,短期有,長期效應沒有出來的話,比較難會有單。
成本效益有多少,真的很難說,我只能說最近很多時候是RD被逼著去生更多應用出來
但是僅靠LLM,是做不了多應用的,LLM只是一個這世代AI很好的廣告而已。
AI這局要延續,只能靠機器人,機器人不可能大台裝一堆顯卡,散熱又不好,能源也
不夠。這邊唯一方法就是走邊際運算,所以通訊跟邊際運算,還有製造機器人的能力
,再來就是仿生,生物界是最好學習的對象,如此高效低耗能,你寫code跟ai互動做的
很多事情在台灣,請工讀生或是美編,或是貴一點的美編跟外包就完成了。
現實就是這樣,如果,再沒有新東西出來,美國選舉效應完大家就一起面對真實世界。"
注意,上面說的應用場景薄弱,是LLM的部分,因應其他需求去設計開發的模型都不
在此列,上面幾篇回文,也有幾位點到問題,這資本開支,還有獲益週期,目前不成
正比,也沒有辦法雨露均霑,你看到皮衣刀客馬上推數位孿生,機器人就知道了。
以目前來說,最有可能的,不那麼暴力的領域,就是文內提到的
邊際運算,以後可能是小模型取代各種,本來的韌體演算法,燒上去
這邊第一個遇見就是,記憶體容量問題,還有算力問題,模型領域針對這種問題
有幾種解法,知識蒸餾,模型合併,還有量化(將本來大量浮點數計算轉成整數計算)
會有能力耗損但是,對算力可以不太要求,這樣用晶片來集群的整個叢集裝置。
體積尚可,會出現專門NPU來做矩陣計算,散熱也比較好處理,能源消耗更低。
也跟上文提到的一樣,在這種client server 體制,或是邊際運算體制。
通訊,就是一件很重要的事情,我對AI是很看好,但是在商言商,沒人想做賠錢生意。
也沒有幾間,特別是股東制的公司會一直對看不到現金流的投資say yes 。
八卦底下有一個推文我覺得滿有sense 的我也是抱持這個想法。
AI 包含軟體的模型,其實就跟當年的網路一樣,他是一個infrastructure
基本上是長期投資,適合大廠跟國家去布建的東西, .com 到我們離不開網路
過了8~10年左右,他的價值才真正凸顯出來,後續的效應跟市場才起來。
現在不過是又重現一次而已,但是人生有幾個8~10年呢?,這三四年的熱錢
就是跟各種泡沫一樣摧枯拉朽,AI有問題嗎? 看你從哪個角度來看
其實,模型要訓練到可商業運用,難在配合解決的問題去反覆設計跟訓練微調,還有
做訓練資料整理,這真的要大量的時間跟金錢,還有腦力。但偏偏這是現實世界上最缺
的,然後真正有意義的模型,中小型參數,就玩具,做成叢集,要靠財力。
70b 開始一般人基本玩不起,llama405b 這種幾千萬的機器是基本,然後訓練想要
達成的應用,除非是研究型,不然真得就是不如請人類做來的省錢。
我想版上應該也有很多理工生科研究型的,以前應該都會有要種儀器只有幾台
實驗室只有兩間,你要做你的研究,就是排隊吧,等申請。
目前可花錢投入的大廠,跟研究型的尚且如此,一般商業除非有經驗證,可行的利基模式
不然我想沒幾個會花錢真正洗下去做。
你說雲端御三家沒有開放給企業訂製嗎? 有阿 N家自己也下來做啊 賣不好啊
你沒有確定方向,跟做法還有利基之前,這個研發成本可是用燒的,一旦弄下去
花錢反正可以列成研發經費,資本開支,但是最後有沒有東西端出來才是問題。
你說要做自然語言,管理後台,查詢,什麼的,這個現在都做得出來。
我自己工作也在做這種,應用開發。 但是我們自己覺得滿雞肋的。
你要做aml 也很可以啊,但是很抱歉,用llm為主的模型效果一定不會太好
要從根開始重新挖開設計,跟定義資料集下去重新訓練,有新樣態,在繼續累積然後
微調,微調也是一個坑,你資料量不夠大,就像一顆石頭,丟進太平洋。沒啥用
但也不要這麼灰心,各位在AI上花的$都位我們後代子孫建立起更好的社會。
大概就是這樣,總結一下,前期資本投資太多,短期看不到成效,消費市場不確定。
本來應該是基建的被炒成很高,真的跟思科很像,不能說一模一樣,但是真的很像。
但你要說他不好嗎? 現在哪間公司機房沒有思科?
作者: cuteSquirrel (松鼠)   2024-08-03 04:11:00
push
作者: junior020486 (軟蛋頭)   2024-08-03 09:04:00
中國搞這個沒用吧,被晶片禁令ban了

Links booklink

Contact Us: admin [ a t ] ucptt.com