現在AI自動學習
就是這樣啊
你就給他大數據
自己去學去修正
有一定機率出錯
只是出錯後
讓它知道是錯的
下次就會停
也因此
寫程式的人
根本搞不清楚為什麼
因為是AI自我學習
出來的結果
就好比
人活的好好的
為何要自殺
別人是絕對無法了解的
所以自動駕駛
自撞問題是不可能解決的
只能降低機率
但機率再低也不為0
好像跟量子力學
有點類似
搞不好AI純粹就是
想自殺或殺人也不一定
※ 引述《badbadook ( 嗨浪)》之銘言:
: 各位 轟天屌 海咪咪 大家好
: 某牌電動車自駕辨識不出來就直接撞上企
: 會不會太蠢阿
: 還好幾次
: 難道不能放一個自動偵測在前面只要偵測到有物體擋著就直接 煞停嗎 跟高鐵一樣
: 難道前面有東西你辨識不出來就可以撞上去嗎 顆顆顆