[討論] 讀完現今LLM的運作邏輯後...

作者: Rosor (我就是城武 別再問了)   2024-08-29 21:51:02
我發現我們距離真正產出一個「人」還是差得太遠了
光是目前LLM的算法就已經預示了要讓機器產生出價值觀基本上非常難
用機率分布跟加權的方式來決定下一個文字是什麼的這種方式
就代表LLM絕對會一直傾向產出最合乎邏輯且合乎她所學習的文本的回答
然而一個人的價值觀所帶來的獨特性 甚至是「我和別人相信的不一樣」的這種特性
就讓LLM完全沒辦法了 因為一個人的價值觀並不總是合乎邏輯的
更不用說如果我們想做出一個跟人相似的 可以行走 聊天 泡咖啡機器人
中間涉及到的問題也很多
道德 材料學 生物力學 甚至是最基礎的散熱都是大問題
只能說我們距離家家戶戶有一個會哄人睡覺的女僕機器人的時代還太遠了
作者: ghostl40809 (gracias)   2024-08-29 21:55:00
去汪梯徵人哄睡還比較快
作者: terry0201 (飛翔的大阪)   2024-08-29 22:14:00
可以用prompt engineering對LLM做一些暗示,讓它看起來有自己的人格
作者: martin12345m (luckybear)   2024-08-29 22:27:00
一直都是這樣 從30年前的機器學習到10年前的深度學習 本質上都沒有完全擺脫 回歸 機率 的特性
作者: GooglePlus (G+)   2024-08-30 00:05:00
可以調 topk topp temperature 阿 但也不代表什麼你所謂的價值觀
作者: KanadeYu   2024-08-30 00:26:00
我覺得其實人也一樣是被環境(文本)塑造人格的,差別大概是人類的文本大部分來自生活經驗吧,如果能搞出一個模擬人類社會互動的情境把ai丟進去,他們搞不好也能發展出價值觀之類的喔可能還要幫他們賦予一些慾望、目標之類像人性的東西
作者: simon1203 (o4)   2024-08-30 08:50:00
你怎麼會覺得人在地球幾百萬年的演化 只要短短一兩百年的科技發展就能追趕得上

Links booklink

Contact Us: admin [ a t ] ucptt.com