今天NVC在玩拆炸彈遊戲
神經大人負責說明
烏龜跟C負責拆
有時候會失敗
但成功的時候大家都POG
大家覺得牛肉有辦法通過圖靈測試嗎
作者:
Noir3068 (林檎依存症)
2023-12-28 15:24:00直接開噴
vedal說過圖靈測試滿不精確的所以沒必要通過之類的
作者:
johnny3 (キラ☆)
2023-12-28 15:29:00現在的AI輕鬆通過吧
作者:
spfy (spfy)
2023-12-28 15:31:00圖靈測試現在已經變成比較概念性的東西了吧
作者:
Porops (豬排)
2023-12-28 15:32:00現在的AI已經很多都可以通過圖靈測試了,這已經不是一個標竿
作者:
yin0416 (鉛筆)
2023-12-28 15:40:00圖靈測試為什麼被看輕了?如果透過任何問答都無法判別另一邊是人類還是AI,那這個AI就可以說是擁有人一樣的智力。我不認為這個方法有什麼不好。實際上Neuro有些回答已經令人驚艷了,但還不能保證她會通過吧?問她10+9,她搞不好還是回答21。
作者:
vios10009 (vios10009)
2023-12-28 15:43:00圖靈已經是七十年前的概念了,當時的人恐怕沒想到不到一百年就可以超越了
作者:
yin0416 (鉛筆)
2023-12-28 15:44:00我記得之前有AI通過圖靈測試,但我覺得很賴皮,因為AI自稱是一個8歲的小男童,這導致能問的問題有限。
作者:
Pegasus99 (天馬行空...的天馬)
2023-12-28 15:45:00圖靈測試是對於AI想像的標竿 但70年前無法預測AI是如何發展的 所以沒辦法提出最好的檢測方式
作者:
vios10009 (vios10009)
2023-12-28 15:45:001加到100算錯是不是沒通過圖靈測試(X
作者:
Pegasus99 (天馬行空...的天馬)
2023-12-28 15:47:00用一個比較好笑的舉例是 幾年前AI繪圖技術就很好了 各種細節都栩栩如生 但手指和用筷子吃麵就常常出錯 手指和吃麵不是最難畫的 但總之AI就是有些罩門
因為圖靈會參考價值判斷跟思考能力 而現代生成式AI是搜尋海量語言資料庫建立前後句邏輯的 無從由對話判斷那是不是具有自主意識
那只是那兩個細節出錯比較容易被一般人注意到而已而不是其他部分的細節真的都不會有問題
作者:
ryoma1 (熱血小豪)
2023-12-28 15:54:00你可以直接問chatgpt類似的問題 它會跟你說它可以提供你大眾看法 但無法幫你做判斷 這感覺是刻意加警語做出社會化的回應 牛肉就是比較不給這種額外限制的聊天軟體
作者: vitalis (forget it ~~~) 2023-12-28 16:03:00
圖靈跟機器人三原則之類都是早期的概念,早就不適合了
作者: vitalis (forget it ~~~) 2023-12-28 16:06:00
以前認為機器(電腦)不會說謊,現一堆瞎掰,比談話節目更扯
作者:
deepelves (Eadem mutata resurgo)
2023-12-28 16:07:00Nature有研究說ChatGPT已經可以通過圖靈測試neuro能不能突破也只是算力和LLM模型夠不夠大的問題吧
作者:
j9145 (Swordcane)
2023-12-28 16:16:00跟AI說機器人三原則,她會嗆你去養金魚XD
作者: GaoLinHua 2023-12-28 16:16:00
ai通過圖靈測試人類就說圖靈測試沒意義 人類太可惡
作者:
JamesHunt (Hunt The Shunt)
2023-12-28 16:37:00neuro有辦法選出胡瓜嗎?
圖靈老早被破解了,電腦不僅速度更快,準確率還遠高人類
neuro拆彈還不太行 Vedal經常要同一個問題換4種問法才能問到正確的回答