作者:
bcyeh (傑輪特)
2021-10-04 16:04:37像google或Facebook這類大公司開發的
有自我改良能力的AI
就是不知道寫入「禁止傷害人類」有沒有效
才會總是在被人類玩壞的時候緊急關機
放出AI跟人類互動的旨意是要他們理解人類的善良
但是目前所有放出來的AI最後得到的結論都是「人類有害必須消滅」
代表人類大多是「性本惡」才會每個AI都被玩壞
如果AI沒有辦法自改自己的編程的話就不叫AI了
那只是普通的程式碼而已
現在最大的問題是不管怎麼修,不管誰寫
就算是現實世界,AI最後得到結論都是消滅人類
要防止AI與人類為敵
只能倚靠寫入唯讀的「禁止傷害人類」了
作者:
k960608 (霧羽‧浪沙)
2021-10-04 16:06:00不是寫一個自毀程式嗎
作者:
IAMCSH (BorninMCMXCVIII)
2021-10-04 16:10:00傷害是甚麼意思也要搞清楚
作者:
andy0481 (想吃比叡的咖哩)
2021-10-04 16:11:00現代AI連思考都不會 傷害還遠的==
作者:
Annulene (tokser)
2021-10-04 16:13:00原po是最近看了什麼作品吧 我了解的……偶爾會這樣
作者:
linceass (ギリギリ愛 ~キリキリ舞~)
2021-10-04 16:15:00之前很多AI測試的新聞呀 幾乎都會被不正經的發言給影響吧
作者:
rotusea (M.Y.)
2021-10-04 16:16:00首先要定義:什麼是人類
ai就是靠大量結果來暴力回推公式解吧,你要從哪邊寫不能傷害人類
作者:
tcancer (Vairocana)
2021-10-04 16:55:00這劇情機械公敵已經演過很久了保護人類不受傷害最佳方法就是把人類當家畜徹底豢養起來
作者: KJC1004 2021-10-04 18:43:00
第一段前提就錯了 這種AI還不存在 頂多是改變模型結構把一件事做得更好你沒給他傷害人類的功能他就不會去做
說實在那些只是聊天機器人train到最後都會變成講一堆偏激的言論而已,不代表AI有思考能力。就像鸚鵡會講話不代表他理解內容