我發現我們距離真正產出一個「人」還是差得太遠了
光是目前LLM的算法就已經預示了要讓機器產生出價值觀基本上非常難
用機率分布跟加權的方式來決定下一個文字是什麼的這種方式
就代表LLM絕對會一直傾向產出最合乎邏輯且合乎她所學習的文本的回答
然而一個人的價值觀所帶來的獨特性 甚至是「我和別人相信的不一樣」的這種特性
就讓LLM完全沒辦法了 因為一個人的價值觀並不總是合乎邏輯的
更不用說如果我們想做出一個跟人相似的 可以行走 聊天 泡咖啡機器人
中間涉及到的問題也很多
道德 材料學 生物力學 甚至是最基礎的散熱都是大問題
只能說我們距離家家戶戶有一個會哄人睡覺的女僕機器人的時代還太遠了