→ PogChampLUL: AI的邏輯不是應該很好嗎

作者: cities516 (安安路過)   2024-10-08 23:50:53
※ 引述 《Sougou》 之銘言:
: 我雖然沒有測過官方相關的智商,
: 但我排列組合還有機率確實學得不好,
: 這也跟我自認智商只有80~90差不多相當,
: 排列組合還有機率真的好難,
: 哎,
: 高中數學最難的就是排列組合還有機率了,
: 學的太苦了。
: → PogChampLUL: AI的邏輯不是應該很好嗎 10/08 22:38
: → Sougou: 沒誒,我邏輯不好,這從排列組合以及機率科目看得出來 10/08 22:38
: → Sougou: 還有我演算法也學得不好 10/08 22:39
這個我有經驗
就是
現在的LLM玄學之一
就是你要讓它自己闡述解題步驟
這樣它講一講 答案就會更準確
如果你要他直接一步跳到答案出來 那錯誤率就會比較高
因為闡述解題過程 其實就是一個引導
引導LLM去產生正確答案的文字
作者: WindowDragon (貼貼)   2024-10-08 23:51:00
理解過程跟背答案的差別嗎
作者: sustainer123 (caster)   2024-10-08 23:52:00
LLM大師 這塊我完全不熟
作者: oin1104 (是oin的說)   2024-10-08 23:52:00
我剛好在學 大師我跟我室友跑去看咕咕嚕的課
作者: cities516 (安安路過)   2024-10-08 23:56:00
有興趣的可以去了解一下Markov chain
作者: oin1104 (是oin的說)   2024-10-08 23:56:00
作者: lou3612 (魚)   2024-10-08 23:57:00
Hidden markov?
作者: cities516 (安安路過)   2024-10-08 23:57:00
Markov chain Monte Carlo method
作者: sustainer123 (caster)   2024-10-08 23:57:00
話說研究LLM之前要先解鎖NLPㄇ老實說深度學習我只對CNN比較熟其他一堆都沒摸過
作者: lou3612 (魚)   2024-10-09 00:00:00
真假 這可以解釋嗎 還是是類似的概念
作者: cities516 (安安路過)   2024-10-09 00:00:00
NLP摸熟後 LLM就差不多了八 我也蠻菜的 我對LLM的理解就是transformer參數堆上去的軍備競賽而已算是用機率學解釋吧 畢竟語言模型本質上是透過上文猜測下一個字要產生哪個字
作者: forsakesheep (家裡蹲魯廢肥宅)   2024-10-09 00:07:00
作者: reader2714 (無毀的湖光)   2024-10-09 00:09:00
我的理解就c獎那樣 因為原理是猜下面的字要怎麼接所以你一步一步引導他就更多資訊能推算後面正確接出來的東西
作者: DJYOSHITAKA (Evans)   2024-10-09 00:22:00
剩我消息理論學完還是不知道你們在講什麼了

Links booklink

Contact Us: admin [ a t ] ucptt.com