https://www.ptt.cc/bbs/Gossiping/M.1693830978.A.C03.html
9/4 就在八卦版講過
8/17 相對低點進去買call https://i.imgur.com/hV3Ykav.jpg
有在follow tesla都
知道啦,只不過新聞喜歡亂寫 一堆後知後覺的 看不懂tesla在幹嘛
傳統自動駕駛
基本分為三大模塊
https://i.imgur.com/poTtq9f.png
感知 決策規劃 執行
其
中感知不管是純視覺還是融合感知 都會用AI對圖像物體進行識別和標註
從圖像中
分離出人和車還有道路邊緣障礙物這些東西 然後將標注後的結果發到
決策模塊, 決策模塊根據感知模塊發送的標註結果, 在人類設置的規則框架下給出
決策. 這裡的人類設置的規則, 例如紅燈停 綠燈行, 人是高危險群體要讓行
直
行車道不能轉彎, 等等基本規則, 之後進行決策 然後給到執行模塊, 控制車輛
因為感知模塊給的結果對於決策模塊非常重要,如果不能準確識別出物體,自動駕駛
就
會出事, 這也是大家在爭論到底要純視覺還是光達比較安全, 爭來爭去.
而特斯拉的fsd v12 使用的端到端方法
強大之處, 他沒有感知模塊, 甚至沒
有任何一個模塊, 在感知層面上 他不再識別
相機拍到的畫面上的訊息, 也
不再進行標注, 他看的是畫面上的像素點, 他看的是這些
像素點運行的規律,
把這些像素點訊息直接輸入到神經網路
神經網路擁有數以億計的真實行車影
片,數以億計的學習經驗
就好像stable diffusion一樣, 把畫師所畫出來的
精美圖片通通餵給AI建立模型
神經網路會根據現在看到的像素運行方式和學習到的模型進行比對, 直接給到執
行模塊
特斯拉fsd 過去擁有30萬行代碼, v12則是0
這個端到端的自動駕駛學
習方式, 未來就需要各個國家的特斯拉車提供拍攝到的畫面進行
學習, 未來
可能會產生中國模型 印度模型 台灣模型 美國模型
甚至模型與模型之間有
可能可以融合
而這樣的方式也不是所有車企都有辦法, 首先你要有算力, 所
以特斯拉購買了nvda
1萬塊英偉達h100. 和自行研發的AI訓練晶片dojo
特斯
拉在28日啟動的10,000顆H100 GPU叢集,會協助訓練全自動輔助駕駛(FSD)系統。
H
100 GPU的運算效能是前一代A100的五倍快,可加快特斯拉訓練FSD的速度、訓
練成果也
會比過去更優秀。不過,H100 GPU非常昂貴,單顆要價近40,000美元
。
由於輝達無法追上市場對GPU的需求,特斯拉只能斥資10多億美元打造自家
超級電腦「
Dojo」。Dojo使用公司高度最佳化的客製晶片,明(2024)年有望
成為全球最強大的超級電
腦之一。這款超級電腦也會訓練特斯拉的車隊並處
理這些車隊傳回的資料。特斯拉執行長
馬斯克(Elon Musk) 7月曾表示,「老
實說,若輝達交出足夠GPU,我們也許不需要Dojo。
」
而所謂的魯莽駕駛問題, 特斯拉2年前就想到了, 在先前版本中, 車子就可以為
駕駛員開
車
方式評分, 只丟入評分90分以上的資料即可
相當於你不會
把垃圾畫師的作品丟到ai裡面去建模型一樣
所以自動駕駛要成功
1. 算力
2. 行車數據
以上兩點特斯拉都擁有
所以fsd v12 就是自動駕駛的CHATGPT時
刻
也是為什麼特斯拉故意留在lv2的原因 他其實是為了在開放道路搜集數據
強化自駕AI