PTT評價

Re: [分享] 特斯拉FSD beta 來比眼力有沒有比AI好

看板car標題Re: [分享] 特斯拉FSD beta 來比眼力有沒有比AI好作者
ykjiang
(York)
時間推噓11 推:13 噓:2 →:34

從最基本的原理來說,光達跟雷達就是用來測距,理論上只有一維的資訊
三維的部分是經過一些設計、運算後得到的

反而鏡頭得到的一開始就是二維資訊,然後可以經過運算得到三維的資訊,
特斯拉更進一步從中取得四維資訊(多的那維是時間軌跡預測)

以目前的技術:
距離方面,光達的精度比較高
平面部分,鏡頭的精度較高,然後鏡頭還可以判斷顏色這個重要資訊

以自動駕駛而言,兩者的精度都超過人眼了
所以關鍵還是在 AI 等其他方面



※ 引述《airforce1101 (我不宅)》之銘言:
: 影像、雷達、光達不太一樣,我把影像與雷達、光達拆成兩類好了,影像對於訊號處理來: 說屬於二維陣列,但是雷達與光達可以帶回三維的目標資訊,雷達就是低頻段的光,因頻: 率特性不同,所以適用場景不同,光達的脈衝時間很短,所以較於雷達相比,對於相同目: 標,可以帶回更高精度的資訊。
: 光達的領域上有關延展性目標,可以參考K. Granstrom, M. Baum, and S. Reuter 所著: 的這篇文章 Extended object tracking: Introduction, overview, and application.: 在AI輔助下,或許環境良好下影像能做到光達能大多數能做的事,但某些判斷影像與光達: 先天上的差距還是存在。
: 其實也好奇,傳感器與影像間的關聯是否讓AI找出並學習其特徵向量,有待高手解答了。

--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 59.105.112.74 (臺灣)
PTT 網址

chandler022704/08 22:56感測能力比人眼好沒問題,但感知就.....

airforce110104/08 22:58我想你想說的是識別吧

airforce110104/08 22:58偵測好不代表識別好

airforce110104/08 23:00識別識別靠的就是後級計算能力

airforce110104/08 23:00個人認為難在快速的識別

chandler022704/08 23:01英文sensing(感測)和perception(感知)

magesf 04/08 23:01攝像頭?那是三小?

rehdscoo 04/08 23:02鏡頭能到這樣也很屌

airforce110104/08 23:04二維得到三維這說法有點怪

rehdscoo 04/08 23:05特黑不用謝

rehdscoo 04/08 23:05https://youtu.be/tEO2X7i9MEw

airforce110104/08 23:06三維包含二維資訊,二維包含三維資訊嗎?

ykjiang 04/08 23:06airforce1101跟人眼立體視覺類似原理,利用視差估算

Tass 04/08 23:08攝像頭

airforce110104/08 23:08這樣還是算三維嗎?是因為時間讓都是二維的數據

airforce110104/08 23:09有了差值變化,沒有惡意,單純想求知,感謝。

ykjiang 04/08 23:10光達都能把原本的測距功能經過巧妙設計變三維了

ykjiang 04/08 23:10二維要變三維怎麼會有困難,看設計跟運算而已

zxcbrian 04/08 23:12講精度很像對岸影片硬是要提些什麼,然後根本廢話。

airforce110104/08 23:12理論上光達速度可以比影像快,在於回來的光向量變

airforce110104/08 23:13化,比影像變化的多

zxcbrian 04/08 23:14你鏡頭解析度超過人眼?還是算距離比較厲害?

airforce110104/08 23:14這個向量的變化就是物理上的資訊了。

zxcbrian 04/08 23:14人類那麼不堪的話就別開車了吧,哈哈

x86t 04/08 23:14要像人一樣的感測 你不如擺個人上去還比較便宜(x

zxcbrian 04/08 23:14靠精度就能開車,那就更別提了

airforce110104/08 23:14延展性目標講的就是這向量的變化

ykjiang 04/08 23:15特斯拉向前的鏡頭有三個,斜前方兩個,平行輸入

ykjiang 04/08 23:16原理上應該比多數(便宜)的光達快

lain2002 04/08 23:34用不同原理的偵測系統是為了Double check避免誤判

lain2002 04/08 23:34否則十幾年前的車就有雷達測距但只警示不直接介入

ssss127 04/08 23:42而AI需要大量數據資料學習,特斯拉就是目前絕對領

ssss127 04/08 23:42先者

ykjiang 04/08 23:43人眼的解析度其實不高,但人眼會跳動,眼珠會轉...

ykjiang 04/08 23:44人眼就中央清楚,周邊模糊,所以要靠其他方式補足

ssss127 04/08 23:46這篇正解 完全說出特斯拉目前的使用方法 讚

ykjiang 04/08 23:53其他方面來說,特斯拉專注在深度學習等AI 部分

ykjiang 04/08 23:54其他牌比較偏向拿高精地圖補足,AI就沒那麼用力發展

StarburyX 04/08 23:55人厲害的不是眼睛 是頭腦 (三寶除外)

ykjiang 04/08 23:56什麼都用當然最強,但時間技術等成本差異不同,

ykjiang 04/08 23:56就有不同取捨

※ 編輯: ykjiang (59.105.112.74 臺灣), 04/09/2021 00:03:11

ykjiang 04/09 00:03有人不喜歡「攝像頭」,我改成「鏡頭」了

ykjiang 04/09 00:04雖然我個人覺得「攝像頭」這個用詞比較傳神

ISNAKEI 04/09 00:13今天統聯去撞機車地下道 我很好奇 自動駕駛可以避免

ISNAKEI 04/09 00:14這種開錯車道高度差嗎 如果要做到應該從哪下手

maniaque 04/09 00:16高精度地圖

x86t 04/09 00:17車頭頂部裝個可以觸發aeb的玩意就可以了吧

ykjiang 04/09 00:21日本那個監控司機的設計可以拿來用,既使沒自駕

ykjiang 04/09 00:21確保司機有看路,再加上疲勞偵測等等的