Re: [請益] AI到底是遇到什麼問題?

作者: derekhsu (華麗的天下無雙)   2024-08-03 07:39:41
※ 引述《neo5277 (I am an agent of chaos)》之銘言:
: 雖然這版是投資版,但是我覺得技術問題,還是先跟投資切開來比較好一點。
技術跟應用場景的問題我不談,之前的人已經談過了,大致上沒有問題。
不同領域的人可能體驗不太一樣,但LLM普及的程度並沒有這麼低,具體而言,主要是 ChatGPT ,在部分領域已經是不可或缺的必要工具,到了掛掉會影響到正常工作或不能工作的程度。
首先是 coding,就我而言,至少有50%的程式碼已經是由 ChatGPT 完成的,遇到 bug 我幾乎沒有再用 Google 或是 stackoverflow ,log 直接丟進 ChatGPT , 大部分情況下它都能大幅減少我的工作時間。
除了遇到有關於 pydantic 的問題,因為這個 module 最近出了V2,模型的回答經常會混合V1的答案,而且傻傻分不清楚,在之前舊的沒有納入 pydantic 的版本時,這問題更為嚴重,必須要自己先提供文件用RAG 讓它知道。
但是就我實際的觀察周邊的人,發現LLM 對於低階的工程師,高階的工程師的幫助個別顯著,但是對於中階工程師而且有使用上的困難。
低階的工程師處理的是低階的問題,本來基礎就不好,LLM本身的能力就能超越這些低階工程師。
高階工程師的能精準的知道自己需要的是什麼,哪些部分可以透過LLM來做比較快,那些自己來做比較不會出錯。懂得如何 prompting ,做問題拆解,所以也能很好的利用到LLM的好處。
而中階工程師就會卡在不上不下的狀況,低階的工作可以自己處理,但是有時候要處理高階工作時不知道要怎麼問LLM,不曉得怎麼做問題拆解,不知道怎麼為 LLM 的回答加入 constraints,那LLM的回答就經常不會是自己想要的答案,甚至是會繞遠路,簡單來講,就是不會發問,因為處理高階問題時,問出正確的問題,提供正確的限制式很重要。
我舉例來說,我自己做RAG的系統,很多人問問題的方式不是在問問題,而是提供幾個關鍵字,當作搜尋引擎在用,那回答的品質當然不好,這也是為什麼 OpenAI 還要做 SearchGPT 的原因之一。
同樣的狀況,也會發生在其他會大量使用到 LLM 的領域上面,必須學術研究。
我不相信現在還有大學生研究生不用 ChatGPT 的,但是但是它肯定也是只能對高階跟低階用戶比較有用,中階用戶因為不懂得問題拆解以及提問技巧,得到的有可能是無法讓人滿意,甚至可能是抄襲出來,虛構的答案,而這些是中階用戶很難判斷的。
LLM具體應用的場景絕對已經深入到某些領域而且已經無法回頭了。
現在的問題是為了持續擴大這個領域,各家公司必須持續軍備競賽,所以成本居高不下。
使用單位大量缺乏問題拆解能力以及提問能力的人無法滲透,即便現在有透過 multiagent 的技術試圖讓LLM能自己做問題拆解,但LLM的大局觀仍遠不如人類。
其實這就有點類似圍棋之前的狀況,LLM善於最後的收官階段,卻沒有大局觀不擅長整體布局,直到 AlphaGo 出現之後達到技術突破。
AIPC是各家CPU公司試圖讓自己從NVIDIA 沒有多少投入的 To C市場突破的一個行銷方式,我仍稱這種是行銷方式是我認為 CPU + NPU 這種應用在PC上面除了拿來做指紋辨識,臉部辨識,這種通用應用以外,To C的NPU場景還沒有那種我不得不用,不用會完蛋的那種應用。
而這種應用在NVIDIA的To B場景下已經有很多了。
如果OpenAI減緩研發腳步,停止讓LLM普及化的燒錢,專注於特定領域的應用,肯定可以很快的改善獲利,問題是這不是一個可以停下來的情況,誰能達到下一個階段的突破,誰就能吃下整個市場。
所以我認為不是LLM應用場景不足,而是目前投入成本不但高,而且根本停不下來。
作者: lolpklol0975 (鬼邢)   2024-08-03 10:57:00

Links booklink

Contact Us: admin [ a t ] ucptt.com