特斯拉測試全自動駕駛軟體,遭批是一場「公路大實驗」
原文連結:
https://bit.ly/3rywJ20
原文內容:
軟體開發常見一種情況:先讓系統完成 8 成並對外發布,讓大量使用者實際找出可修改的
問題。這方法「很矽谷」,對一般 3C 消費產品沒問題,但對車輛安全議題很不 OK。
上週特斯拉(Tesla)發布全自動駕駛軟體最新版本 FSD beta 9,但許多專家不僅批評它開
車就像「喝醉酒的司機」一樣危險,更擔憂特斯拉在未經其他用路人同意,就擅自進行一場
「公路大實驗」,恐會危及其他司機、路人的道路安全。
FSD beta 9 就像「喝醉酒的司機」
《消費者報告》(Consumer Reports)是由非營利組織美國消費者聯盟所創辦的評測類媒體
,該組織專家在觀看其他車主發佈在社群媒體上的影片後,對 FSD beta 9 提出許多擔憂,
例如:車子會錯過轉彎時機、會刮到路邊的灌木叢,甚至明明前方已經停放其他汽車,還會
向前駛去。
有學者還表示,從影片來看,特斯拉的 FSD beta 9 開車情況看起來就像是「喝醉酒的司機
」(Like a Drunk Driver),似乎一直努力保持在道路中間正常行駛,但當它要左轉時,
就會呈現接近「瘋狂」(wild)的樣貌。
https://youtu.be/GlIdu7prsAw
雖然只看影片不一定能知道真正問題為何,但由於這些專家們光看影片,就看出一堆明顯問
題,也讓他們更憂心,擔心特斯拉這次又跟以前一樣,是藉由車主在公路上嘗試全自動駕駛
,來進行一場仿若「公路大實驗」的 Beta 版測試。
矽谷習慣讓使用者找出軟體問題,但這不適用車輛安全
美國杜克大學人類與自治實驗室 Missy Cummings 指出,在軟體開發中很常見一種情況:先
讓系統完成 8 成,之後就對外發布,透過大量測試的使用者實際找出可修改的問題。雖然
這種方法「很矽谷」,對一般 3C 消費產品來說沒問題,但特斯拉如果用這種方式來測試自
動駕駛系統,就一點也不 OK。
因為,開車上路不僅是車主一個人的事情,也攸關其他用路人的安全。麻省理工學院教授、
同時也是先進車輛科技(Advanced Vehicle Technology;簡稱 AVT)聯盟創辦人的 Bryan
Reimer 就指出,雖然特斯拉車主知道自己可能承擔怎樣的風險,但公路上其他廠牌的車主
、騎自行車的人以及路人們,卻都不曉得自己正在參與一場未經個人同意的公路實驗。
相較之下,其他同樣也在開發自動駕駛技術的業者,包括 Argo AI、Cruise 以及 Waymo,
他們都會在私人道路上進行軟體測試,或是安排經過專業訓練的安全司機來進行一切的測試
監控。
學者:美監管機構似乎對特斯拉行為「視而不見」
《消費者報告》汽車測試中心的高階主管 Jake Fisher 認為,特斯拉至少應該做到「即時
監控」車主們,以確保他們在使用新的全自動駕駛軟體時,也能夠集中注意力。
畢竟,2018 年一輛 Uber 自動駕駛測試車在公路上行駛時,就曾經與其他車輛擦撞,並導
致對方死亡。憾事發生後,相關業者都制定了更嚴格的內部安全政策,例如:即時監控司機
避免他們分心,或是只在模擬、封閉的道路上來測試自動駕駛。
如果美國聯邦監管機構可以針對公有道路能測試車輛軟體,或許就能解決上述問題。但美國
大學教授 Talbott 謹慎地表示,美國交通監管機構似乎對特斯拉的特定行為「視而不見」
。
還好,最近監管方向有些變動。前陣子美國國家公路交通安全管理局(National Highway T
raffic Safety Administration)就要求,汽車未來如果使用自動駕駛軟體後發生任何擦撞
事故,都得提交相關報告。
如果監管機構的法規動向能跟上快速發展中的自動駕駛技術,才能真正發揮自動化在人類社
會的最大潛力。
心得/說明:(30字以上)
對於Tesla在沒有監控的情況下測試FSD beta的行為
美國權威消費者團體Consumer Reports再次提出質疑
畢竟從實測影片來看
FSD beta就像是路上的不定時炸彈一樣
隨時可能造成其他用路人的危險
*轉錄新聞/情報,必須附上原文及網址連結及心得或意見30字(不含標點符號)*