PTT評價

Re: [閒聊] Tesla:LIDAR

看板car標題Re: [閒聊] Tesla:LIDAR 作者
zzahoward
(Cheshire Cat)
時間推噓 8 推:9 噓:1 →:49

leefengynh: 黑人問號 03/19 13:46
leefengynh: 我家攝影機全黑暗房間中看得一清二楚 03/19 13:46
leefengynh: 人眼完全看不到 03/19 13:46
leefengynh: 你說人眼比較強xddd? 03/19 13:47
leefengynh: 然後你這文組硬體代工腦 03/19 13:47
OBTea: 視覺+光學整合是在自然界中很少見的,整合進AI 就是加成本 03/19 13:05
OBTea: 沒錯 03/19 13:05
OBTea: 修正:視覺+光達 03/19 13:06
d4015394: 攝像頭比人眼弱我還是第一次聽到 03/19 15:18
d4015394: 人眼比鏡頭強,我直接肉眼看就好,我幹嘛先用手機拍下 03/19 15:49
d4015394: 來,再放大來看 03/19 15:50
d4015394: 不是讀醫學的在那邊胡說八道 03/19 15:50

這串討論蠻有趣的,雖然兩位版友比較嗆,但我更想討論的是貼近人類視覺的ADAS

其實我本身也不是醫學和光學專業,不過歡迎指證

以ADAS視覺來說,攝影鏡頭是無法和人眼相比較的

我回應貼文有提到一件事情

*****************
視網膜Fovea幾乎等於高解析度+gimballed autofocusing stereoscopic的傳感器
目前硬體無法達到這個等級
*****************

其中人眼怎麼判斷距離和建立3D? 大家每天在用卻可能沒很了解

重要的就是焦距+兩眼視差+肌肉旋轉角度透過大腦處理繪製而成

人眼在中心區域解析度非常高,隨著中心往外擴散解析度越來越低

這也可以讓人眼在大腦中計算出整個3D+距離的概念

但攝影機"目前"就算能做到高解析度,但沒有萬向節+自動對焦機制

很難繪製出距離和3D模型

所以有一派說法,為了補足攝影機的先天劣勢且更能接近人類視覺模型

radar的測距、3D繪製和攝影機本身的mapping才是最接近人類視覺判斷的資訊

事實上Elon Musk本身完全不反對兩種不同傳感器輸入

他甚至早在2022年就說過"Only high resolution matters"

假如認為Tesla是想要複製人類駕駛資訊輸入的感官

那勢必"測距+3D"就是最後一哩路

當然當代AI能不能透過更多攝影鏡頭或是更複雜的運算去繪製出3D我就不太確定

但Radar就是補足這方面的功能


隨著Tesla購入大量LiDar進行訓練建立數據庫以及決策模型

未來會不會有一天轉彎也蠻令人好奇的

--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 136.226.240.114 (臺灣)
PTT 網址

zyx1232003/20 09:41純視覺繪製3D不就2022年發表的佔用網路

我知道有這個,Tesla現在也是在多數狀態做得到,但覆蓋面有限

moom5030203/20 09:42呃,特買光達已經很久的事情了,用來檢核視覺結果而已

有數據之後搞出新演算法要Train其實就在那邊了

nrsair03/20 09:43人眼加人腦比較聰明

※ 編輯: zzahoward (136.226.240.114 臺灣), 03/20/2025 09:46:11

nrsair03/20 09:48但是人也經常會犯錯

StarburyX03/20 09:54特斯拉就沒在弄這些了 剩下自動停車還在用

StarburyX03/20 09:54規控頭頭 都在V12那波離職了

mussina2703/20 10:21有什麼特殊的理由需要很耗電的LiDAR? 現有的 mmWave 4D

mussina2703/20 10:21 radar 也是有很多可能性不是嗎

Sean042803/20 10:35Andrej Karpathy 之前在no priors 節目就有提到 實際上

Sean042803/20 10:35特斯拉也有用到其他感測器 只是在training model 使用

Sean042803/20 10:35 這些數據被蒸餾成只需要鏡頭的模型在車上運行 有興趣可

Sean042803/20 10:36以去看看整篇訪問

dslite03/20 11:10用雙鏡頭視差就能測距了 比如hitachi eyesight的acc. 也

dslite03/20 11:10確實能像影片那樣做假景騙過它 畢竟人類對環境的觀察力遠

dslite03/20 11:10高於目前電腦視覺只專注在某個視角內的物品

dslite03/20 11:144D雷達應該也是貴 傳統車廠都沒興趣

kira92503/20 11:15雙鏡頭就是Subaru Eyesight那一套

kira92503/20 11:16但是多鏡頭系統的視差怎麼做出景深也是需要好好琢磨的

supereva03/20 11:36圖片那個我也會被騙啊XD

playdoom03/20 12:40所以特斯拉前面,至少兩顆鏡頭,創造視差,這些鏡頭,可

playdoom03/20 12:40以在停車時,一一查看

leefengynh03/20 15:23不會轉彎 特斯拉完全自動駕駛內部已經做出來了XDDDD

leefengynh03/20 15:24接下來就是逐步先放到無人計程車裡面 之後再放到車主

leefengynh03/20 15:25騙得過AP也騙不過FSD FSD你甚至不用平面照片

leefengynh03/20 15:25你直接用一層透明板 放在道路中間

leefengynh03/20 15:26透明板看過去另一側 是真實的道路

leefengynh03/20 15:26FSD一樣不會被騙

leefengynh03/20 15:26@dslite

leefengynh03/20 15:27你該多去看網上的FSD測試影片

leefengynh03/20 15:27不是拿EAP在這邊吵

leefengynh03/20 15:28一直拿google助理的對話 來說goole gemini是智障

leefengynh03/20 15:28你知道是不同人嗎 功課都不做 整天用幻想的XDDDDDDDDD

leefengynh03/20 15:35我再說一次 特斯拉「完全自動駕駛」已經做出來了

leefengynh03/20 15:35已經從去年年底一直測試到現在

leefengynh03/20 15:35並且即將在6月的奧斯丁部署無人計程車

leefengynh03/20 15:36「沒有方向盤」的cybercab產線也已經佈好了

leefengynh03/20 15:36預計明年初就要量產

leefengynh03/20 15:37反對純視覺 你就該把我們研究透徹

leefengynh03/20 15:37這樣你才能精準反駁

leefengynh03/20 15:38不是總是躲在你自己的小圈圈幻想

leefengynh03/20 15:38光達車就是在馬路上生不出像樣的產品

leefengynh03/20 15:39因為物理極限就擺在那裡 光達自駕2010年就在研發了

leefengynh03/20 15:39到2025年還是不長進

weichungBRO03/20 16:23都2025年了還在光達 傻眼

weichungBRO03/20 16:25就人眼比攝像頭強好了 但反應速度 疲勞度 專注度

weichungBRO03/20 16:25人都遠遠比不過機器 這樣講文組的懂嗎

Killercat03/20 19:013D問題算小 Occupancy Network就是為了解決單鏡頭

Killercat03/20 19:013D建模而有的演算法 缺點是要動 東西不動就沒輒

Killercat03/20 19:02但是開著車基本上不可能不動 所以問題不大

Killercat03/20 19:02Tesla也是走這個solution 所以每個方向攝影機都只有

Killercat03/20 19:02一個 但是可以建模出大多數車身周圍的3D模型

Killercat03/20 19:03https://zhuanlan.zhihu.com/p/575953155 有興趣可看看

Killercat03/20 19:17另外能夠利用影片做訓練 這個也是一個很大因素

Killercat03/20 19:17不然影片就只能做tagging而已

iosian03/20 23:20相機角分辨率要超過人眼是輕而易舉,動態範圍也是,轉向可以

iosian03/20 23:20靠多目相機克服,有多目就有立體視覺,問題都在要花多少錢,

iosian03/20 23:20然後LiDAR解析度是遠低於相機的

moom5030203/21 09:10並沒有,特很早就沒再買光達了,業績和股價說明一切

oicla03/21 12:35特去年不是有買光達嗎 去年第一季特是光達最大客戶