※ 引述《gindisergo》之銘言
: 最近許多ChatGPT使用者發現ChatGPT變懶變笨了
: 目前OpenAI也坦承了這種狀況
: https://www.ctwant.com/article/303569
: 難道ChatGPT也學習會了躺平
: 然後就變懶了
: 有沒有AI達人來解釋一下原因?
正好半夜看到這篇無聊來回一下
GPT4能力下降大概5月多開始就有人注意到了
但你要怎麼定義能力衰退這件事而且量化他?
於是七月就有一篇論文在討論這件事
https://arxiv.org/abs/2307.09009
證明了gpt4能力隨時間下降這件事
但真正的原因除了OpenAI,沒有其他人知道
版本沒更新所以變笨更是屁話中的屁話
模型又不是人類會變老 腦子老化後會變笨
模型參數在部署的時候跟訓練時完全一模一樣
就是他媽固定在那邊了一輩子不會變
而且LLM的訓練成本高到一個幹破你娘
更不存在直接拿使用者答案onsite訓練這種事
所以大家在猜的幾個原因
1. 為了防範回答危險問題過度限制提問
2. 為了成本考量偷偷蒸餾模型換成較小參數模型
3. 用多個小模型組裝照問題分類各自回答模擬gpt4
總之OpenAI當初沒Open Source模型
背後要省成本換了啥模型也沒人知道 死無對證
LLM光query一次成本就超高
減少模型reasoning的成本也是目前主流研究方向
但像GPT4這種全面菁英級LLM
在不犧牲性能的前提下costdown根本是天方夜譚
加上現在光是開源的LLaMa就能擋很多初階應用場景了
所以懷疑到OpenAI濫竽充數也是很合理的事情