※ 引述《iamala (it depends)》之銘言:
: AI自駕車和人類比安全?
: 自駕車會有bug, 會有設計不良,遇到緊急狀況處理不如人類。但別忘了,是和“典範”
: 人類比。
: 住測試區的人活該承受風險?
自駕車是不是真的比較安全,會不會撞死人
從某種角度來看,這還是一個次要的問題
真正重要的問題,還是社會體系的問題
自古以來,無論是什麼社會
殺人償命,欠債還錢
這個責任的觀念,是社會維繫道德、法律運作的最基本原則
這個原則沒有了,社會的運轉體系也將隨之崩解
自駕車撞死人,責任屬誰?
駕駛員說:「車不是我開的,我不是造成事故的原因,所以我無罪」
程式設計師說:「我只是領22k薪水寫程式,後面的事情,我通通不知道」
車廠說:「自古以來車子撞死人,都是找駕駛員究責,哪有找車廠的」
所以法官就說了:「既然車子是電腦開的,那就判汽車電腦無期徒刑吧」
然後法警就將肇事汽車的汽車電腦取出,鎖到監獄的庫房中,結案
~~~~~~~~~~~~~~~~
如果汽車電腦會說話,那它一定會說:
「我什麼都不知道,我只是忠實的執行程式設計師的指令(程式),然後就撞死人了。」
這時候法官就說了:
「好吧!你只是受人指使,原本無故意殺人的企圖,既然這樣,減輕你的刑責為10年有期
徒刑。至於那個程式設計師,就判他教唆殺人吧。」
~~~~~~~~~~~~~~~~
如果人類沒有對於類似自駕車的產品訂出法律,明定責任規範
無論自駕車再怎麼發展,也沒有穩定上路的一天