從最基本的原理來說,光達跟雷達就是用來測距,理論上只有一維的資訊
三維的部分是經過一些設計、運算後得到的
反而鏡頭得到的一開始就是二維資訊,然後可以經過運算得到三維的資訊,
特斯拉更進一步從中取得四維資訊(多的那維是時間軌跡預測)
以目前的技術:
距離方面,光達的精度比較高
平面部分,鏡頭的精度較高,然後鏡頭還可以判斷顏色這個重要資訊
以自動駕駛而言,兩者的精度都超過人眼了
所以關鍵還是在 AI 等其他方面
※ 引述《airforce1101 (我不宅)》之銘言:
: 影像、雷達、光達不太一樣,我把影像與雷達、光達拆成兩類好了,影像對於訊號處理來
: 說屬於二維陣列,但是雷達與光達可以帶回三維的目標資訊,雷達就是低頻段的光,因頻
: 率特性不同,所以適用場景不同,光達的脈衝時間很短,所以較於雷達相比,對於相同目
: 標,可以帶回更高精度的資訊。
: 光達的領域上有關延展性目標,可以參考K. Granstrom, M. Baum, and S. Reuter 所著
: 的這篇文章 Extended object tracking: Introduction, overview, and application.
: 在AI輔助下,或許環境良好下影像能做到光達能大多數能做的事,但某些判斷影像與光達
: 先天上的差距還是存在。
: 其實也好奇,傳感器與影像間的關聯是否讓AI找出並學習其特徵向量,有待高手解答了。