※ 引述《twyes1688 (twyes1688)》之銘言:
: 自動駕駛 的開發已經寫好很多程式判斷
: 例如:與前車相距50公尺內即減速 (隨便舉例)
: 前有紅燈即停
: 等等
: 但是 程式再厲害碰到白目的人,一樣發生車禍
: 因此 自動駕駛 要發揮最大的安全應該 以後全面禁止人類駕駛
: 這樣應該是最安全的
: (當然程式的判斷邏輯不能寫錯)
先說說Google的自動駕駛
他上路以來發生過的車禍幾乎都是其他駕駛人引起的
http://technews.tw/2015/05/15/google-driverless-car/
假設在全面自動駕駛的情況下
或許無人為駕駛會比較安全
: 推 joey0422: 邏輯是人寫的 是人就一定會犯錯
寫程式就是不斷debug
小程式可能還好 一旦複雜一點或大一點的程式難保沒有BUG
甚至有的BUG是測試時沒有發作 碰到特定情形才會發作的(所以測試真的不能馬虎
: → berryc: 別說是AI了~ 只要有辦法控制電腦就等於掌控全世界
安全性也是自動駕駛這方面一個很重要的議題
在剛有這個概念不久就有人提出疑問
假設你今天坐的車子被駭客入侵了 但你卻可能完全不知道
因為駭客只要不做會造成實質影響的事情(ex:修改行車路線)你就不會發現
: 推 sysop5566: 還要全面禁止路人 電腦才能運算
這個現在的車子不是有的有自動偵測前方如果有障礙物(?)會自動煞車嗎
: 推 davidlai1990: 所以在高架道路的確有可能先達成
這點可能性很大 畢竟在平面道路狀況比高架道路複雜多了
沒記錯的話 Google自動駕駛一開始除了廠區內測試
之後似乎就是上高速公路(有點忘了)
: → NatShop: 還要考慮傷害程度判斷~死傷已無法變免時AI會選擇死傷的量
: → NatShop: 可能最後決定犧牲駕駛人,而避開路邊的人群或是周邊車輛!
這個也是在自動駕駛出現後就有人提出的疑問(而且大大說的可能成真)
在電腦看來 程式怎麼寫就是怎麼做 不會像人類思考
假設今天狀況發生 而程式判斷無法避免撞擊時 就會開始演算最小傷害
除了大大所說這種該撞擊其他車輛或是路人 甚至犧牲駕駛人的問題之外
還有一個問題
假如發生狀況 程式會判斷最小損害
在要撞擊車輛的狀況下 程式會選擇"最小損害"
換句話說 你的車比別人安全 程式在選擇時 就會來撞你
你的車破破爛爛 就比較不容易中獎(被撞)
那這樣子 誰還要買好車呢?
買千萬超跑也是電腦開 買一台個位數字的國產車也是電腦開
買安全規格高的車被撞的風險還要變高
這個矛盾以我所知目前還沒有定論
因為不只道德上怪怪的 還有法律問題
那這狀況下出車禍誰要賠錢?車商?
車商表示:那是程式演算出來的結果不能怪我
不說汽車 說說其他變因吧
假設今天非要撞擊 前方有兩台騎機車的人 一個有安全帽一個沒有
按照程式演算 會去撞有戴安全帽的人 ←所以以後別戴安全帽存活率較高(誤)
在人看起來會覺得不可思議 但程式是死的 他只會去算出最佳方法
不過不管如何 這件事情離台灣還很遙遠
光立法可能就要搞很久了 還有硬體建置的路要走..(這邊的硬體指的是讓車輛連上網路 可以和一個管制中心進行聯繫來得知交通狀況而提早做出應變)