Re: [分享] 特斯拉FSD beta 來比眼力有沒有比AI好
※ 引述《ewings (火星人當研究生)》之銘言:
: ※ 引述《ykjiang (York)》之銘言:
: : 二維了。
: : 雷達基本上是機械動作在掃描
: : 初代的光達也一樣,最新的發展小型化後,有搞陣列方式同時發射好幾組雷射,不過: : 解析度還是個問題
: 還是不曉得你在供三小
: 從雷達誕生以來,也從來沒出現過你口中的“一維”雷達
: https://en.m.wikipedia.org/wiki/Lichtenstein_radar
: 拿二戰裡的德國Lichtenstein雷達來說好了,雷達發射天線是固定在飛機的機首,
: 也沒有任何的機械機構讓天線搖動或轉動。
: 但是利用雷達波打到目標,再反射回上下左右四個天線的時間差,以及A-scope顯示器,: 就能得知目標的在三維空間中的向量與距離。
: 而這個方式,特斯拉的雷達也在使用,只是特斯拉選的雷達,精度相比之下像玩具。
OK, 以雷達波的特性,的確如你說的,可以一個雷達波出去,同時有多組天線接收
這部分跟光達有差異。
: : 你講的 CMOS 果凍效應,不是 CMOS 的本質,而是數位化後,要將資料放在記憶體,: : 從記憶體讀取時有先後順序,這基本上是電子式的掃描,跟前面的機械式有差距。
: 這邊也是看不懂你在講三小
: 就算是類比式的CCD,為了輸出NTSC/PAL的序列訊號,也是逐個cell掃描
: 和數位化一點鳥毛關係都沒有
你講的應該是 Rolling Shutter 造成的果凍效應,
CMOS 會採取 Rolling Shutter 有很多因素,例如為了功耗、快門速度、共用元件等
CMOS 後來也有 Global Shutter 的設計
Rolling Shutter 是同時一排 cell 曝光(不算逐個 cell,硬要挑的話)
Global Shutter 是全部的 cell 一起曝光
至於 CCD 是採用 Global Shutter 的設計
你說的為了輸出 NTSC/PAL 逐個 cell 掃描,是發生在後段處理上
: 另外,也一樣在半個世紀前,就已經有電子掃描陣列雷達的技術
: (electronically scanned array)
: 只是這種技術受到管制,車廠還想車賣到世界各地,多半不是很想用
: : 未來位置,
: : 你可以搜尋一下,有人就說這個是 4D 雷達
: 那只是營銷用的名詞,沒有一本教科書用4D雷達這種講法。
: : 去年 10 推出的 FSD Beta 8.1 跟今年三月的 FSD Beta 8.2 已經有立體視覺
: : 預計四月(如果沒延期的話)推出的 FSD Beta 9 會是 Musk 說的 4D 視覺
: : 深度一直為人所詬病的地方。
: : 就算如後面推文你說的,特斯拉前向三個鏡頭是不同測交距離的鏡頭,搞不出立體視覺: : 但你忽略了特斯拉側前方還有兩個前向鏡頭,是完全對稱的測焦距離是一樣的80M以內: https://img.laserfocusworld.com/files/base/ebm/lfw/image/2020/03/2004LFW_jh_1__2_.5e834778af184.png
: 麻煩在圖裡面指給我看一看。
80m鏡頭,我是敲「側」前方的兩個前向鏡頭,不是敲(正)前向鏡頭
而且這已經不是重點了,
如之前推文說的,特斯拉 3D 視覺,主要是靠正前方那三個鏡頭
基本上沒側前方那兩個鏡頭的事了
--
光達也是有FLASH形式的喔 ^^ 看看iphone12promax
查了一下,的確有,但還在發展,要車用速度還不太夠
a-model-3/
目前flash-LiDAR比機械式的慢,車速太快的話不大行
特斯拉堅持光學鏡頭的原因,就是可以賣謎片
3
笑死,你又把你自己的妄想拿來當證據了,啥“初代光達”! 20年前,連名稱都還沒統一叫Lidar時,就已經在研究使用光電感測器陣列直接生成三維影像了, 一開始研究光達的時候,就有人從雷射全像技術出發,從來沒有你想像的“一維”Lidar : : : 你講的應該是 Rolling Shutter 造成的果凍效應,7
提到光達,沒有人會扯到雷射全像術吧 維基百科介紹 LiDAR 原理時附的動畫如下: Velodyne 出的,早期被用於電動車的 LiDAR ,Waymo 還在用的,結構如下:1
笑死,光達輸出的資料從來就是三維的,只有一維的叫雷射測距儀。 如果是更早之前還在用LADAR為名的時代,還有更多是利用全像原理,用相位差生成三維資料的技術。 對系統來說,不過感測器是用甚麼原理,輸出的資料格式如果是三維的,那就是三維, 有差別的只是更新率而已。 而光達輸出的一直都是三維資料,即使是平面光達,也是三維資料降維。6
我沒說光達最後的輸出資料不是三維,我只是說初代的光達是用一維的雷射測距,經巧 妙設計後得到三維的資料 : : 你講的應該是 Rolling Shutter 造成的果凍效應, : : CMOS 會採取 Rolling Shutter 有很多因素,例如為了功耗、快門速度、共用元件等 : : CMOS 後來也有 Global Shutter 的設計11
這邊看完,我的感想只有“供三小?” 雷達與光達在原理上是利用掃描的方式,取得距離與向量,本質上資料的維度就是大於二維了。 是什麼時候變一維的?如果要這麼瞎扯,那鏡頭裡的CMOS一次也只能讀一個cell的資料, 一樣得要逐個掃描才能得到二維影像(這個就是所謂的果凍效應的成因), 照你的說法,鏡頭不也一樣是一維的?3
雷達基本上是機械動作在掃描 初代的光達也一樣,最新的發展小型化後,有搞陣列方式同時發射好幾組雷射,不過 解析度還是個問題 你講的 CMOS 果凍效應,不是 CMOS 的本質,而是數位化後,要將資料放在記憶體, 從記憶體讀取時有先後順序,這基本上是電子式的掃描,跟前面的機械式有差距。1
還是不曉得你在供三小 從雷達誕生以來,也從來沒出現過你口中的“一維”雷達 拿二戰裡的德國Lichtenstein雷達來說好了,雷達發射天線是固定在飛機的機首, 也沒有任何的機械機構讓天線搖動或轉動。7
直接看實際例子不就好了 在機車海的國家打開FSD 都能正常自輔駕 實際例子有什麼還能質疑的嗎9
目前應用的雷達跟光達在量測數據上還是有些不同 [雷達] 參考這篇文章18
首Po這個youtuber將FSD AI看到的畫面結合實際行車畫面 有幾個亮點, 你去觀察對向車道,或是更遠處都可以發現AI都可以清楚知道車子位置在哪 換句話說,FSD用了鏡頭就可以模擬光達的距離偵測了 這個技術已經被特斯拉提出為專利
24
[討論] 三星S20 Ultra是不是要跌落神壇了這次三星堆料堆到滿的手機 基本上撇開螢幕 處理器跟記憶體大小 這支手機的成本大部分都花在相機上 可是剛剛看了一大堆youtuber的評價 感光元件太大17
[情報] Tesla FSD 10.4 beta vs Waymo光達vs視覺 矛盾大對決 出場選手 Waymo : 光達9
[討論] 光達與毫米波雷達 自駕技術的未來之戰今天網路有一位曲博士分析了未來自駕技術所使用的雷達與光達的差異 並大膽分析特斯拉未來自駕技術的選擇 因為影片很長相信大多數人不會看完 所以總結一下- 是這樣的 最近覺得好像週邊充滿神經病 到處都是 然後我重看這片 就覺得
89
[問題] CX-5 / NX350h 選擇99
[閒聊] 少子化為啥大家都買休旅車?17
Re: [心得] 台南toyota避震漏油無法出保(更新)15
[閒聊] 遇到硬擠會閃嗎13
[問題] 停等紅燈被後車推撞後保險理賠後續9
[閒聊] 國道充電漫遊上線6
[情報] 國道ㄧ 南下 湖口新增照相機X
Re: [新聞] 車停社區車道1小時罰1萬/住戶挨罰125萬1
Re: [新聞] 車停社區車道1小時罰1萬/住戶挨罰125萬15
[情報] Rolls-Royce Cullinan可能搭載H3
[問題] 轉速表有沒有可能是快樂錶?15
[問題] 汽車有衝壓進氣的設計嗎?3
Re: [新聞] 宛如科幻小說 馬斯克的未來地底隧道亮相