Re: [分享] 特斯拉FSD beta 來比眼力有沒有比AI好
※ 引述《ewings (火星人當研究生)》之銘言:
: ※ 引述《ykjiang (York)》之銘言:
: : OK, 以雷達波的特性,的確如你說的,可以一個雷達波出去,同時有多組天線接收
: : 這部分跟光達有差異。
: 笑死,光達輸出的資料從來就是三維的,只有一維的叫雷射測距儀。
: 如果是更早之前還在用LADAR為名的時代,還有更多是利用全像原理,用相位差生成三維資料的技術。
: 對系統來說,不過感測器是用甚麼原理,輸出的資料格式如果是三維的,那就是三維,: 有差別的只是更新率而已。
: 而光達輸出的一直都是三維資料,即使是平面光達,也是三維資料降維。
我沒說光達最後的輸出資料不是三維,我只是說初代的光達是用一維的雷射測距,經巧
妙設計後得到三維的資料
: : 你講的應該是 Rolling Shutter 造成的果凍效應,
: : CMOS 會採取 Rolling Shutter 有很多因素,例如為了功耗、快門速度、共用元件等: : CMOS 後來也有 Global Shutter 的設計
: : Rolling Shutter 是同時一排 cell 曝光(不算逐個 cell,硬要挑的話)
: : Global Shutter 是全部的 cell 一起曝光
: : 至於 CCD 是採用 Global Shutter 的設計
: : 你說的為了輸出 NTSC/PAL 逐個 cell 掃描,是發生在後段處理上
: 笑死,再掰嘛
: 特斯拉用的就是CMOS影像感測器,照你的講法,那也是一維的。
: 現在不管是哪種攝影機,都是輸出序列訊號,不管是用rolling還是globe shutter,
: 都是一個一個cell的資料丟到暫存器,再以一維資料格式(NTSC)輸出
這部分也是,我一開始表達的也是 camera 的感測元件一開始就是二維的 cell 陣列
一個 cell 一個 cell 讀是你要抬槓,才提出來的,然後你還提了果凍效應佐證。
另外,camera 一般內部有 buffer 儲存完整的 2D data
輸出時才用你說的 NTSC 序列輸出,NTSC 基本上是舊時 TV 格式,高解析度的 camera
不用這種輸出格式了。而且 NTSC 還有奇偶交錯的問題,在處理上容易碰到另一種跟果
凍效應有點類似的問題,不過這也扯遠了。
其餘的輸出格式還有很多,也是各種取捨,不再贅述。
: : 1__2_.5e834778af184.png
: : 80m鏡頭,我是敲「側」前方的兩個前向鏡頭,不是敲(正)前向鏡頭
: : 而且這已經不是重點了,
: : 如之前推文說的,特斯拉 3D 視覺,主要是靠正前方那三個鏡頭
: : 基本上沒側前方那兩個鏡頭的事了
: 別搞笑了
: 特斯拉的三個鏡頭焦距相差那麼多,說能構成視覺深度,是你在幻想吧
: iphone手機上面有兩到三顆鏡頭,但是還不是乖乖的上Lidar?
: 不同焦段的鏡頭,物體的影像在鏡頭內的像素差距非常大,光是判斷是不是同一個物體都要消耗不少演算力了,
: 還妄想能構成深度視覺?
: 更別提特斯拉用的還是非常悲劇的1.2M像素鏡頭。如果像NIO用的是8M的,還勉強有點機會構成2.5D
: 如果兩個焦段差那麼多的鏡頭就能構成深度視覺,你都可以去apple總部前面嗆他們白癡才要額外用Lidar了。
我不確定你說的 2.5D 多出的那 0.5D 指的是什麼
不過前面推文中也有人給連結了,證明一個攝像頭就能測得深度,多個攝像頭更準確。
因為車子行進間可以拍很多個對同一物體不同距離下的 frame
至於特斯拉是怎麼辦到的細節部分,我不知道,唯一確定的要耗費很多算力,
連結如下:
《Autopilot》AK談論AP開發細節 (2020/02)
https://www.mobile01.com/topicdetail.php?f=741&t=6137451
《Autopilot》FSD初探25-遮住鏡頭還能在路口轉彎嗎?
https://www.mobile01.com/topicdetail.php?f=741&t=6246238
--
特斯拉企圖用算力來補影像不足,這點我認為是正確
的方向。因為半導體製程的進步速度與價格下降幅度,
現在你看起來很誇張的運算,對五年後的硬體來說根本
不算事。所以同樣的鏡頭配置,隨著軟體跟運算能力的
提升,可以不斷提升自駕的成熟度。雖然最終能達到的
程度仍會被鏡頭配置限制,但看特斯拉這麼多年沒更改
鏡頭但處理單元升級這麼多代,可以證明目前的鏡頭還
夠用,是運算能力還有提升的空間。然而提升運算能力
是非常快的。明年的GPU運算能力不知要海放現在多遠
特斯拉的電腦設計成可升級不也說明這一點?
我認為特斯拉的想法很簡單,人類的眼睛幾萬年來都沒
什麼進步(甚至可以說是退步),但人類大腦的進步是
非常可觀的。與其去發展很強大的感測器,不如好好把
目前有的資訊處理好。更簡單的說,如果特斯拉可以發
展出有跟人類一樣駕駛能力的自動駕駛,但是不會疲勞
不會分心,也不會腳麻。甚至更強的是可以同時看車前
車側跟車後。這樣的系統有沒有取代人類駕駛的資格?
那些整天嘴自駕要100%不能出錯的人,覺得自己開車的
出錯率是多少?
自己出錯是自己負責,特斯拉自駕出錯,特斯拉負責
賠嗎?
樓上,講到法律的時候,特斯拉就會講FSD不是自駕,
車主手冊要求駕駛隨時要手握方向盤,出事都是駕駛沒
有監控的關係....
就是HW3運算限制,特斯拉鏡頭解析度才沒再提升啊
HW4明年會出來,到時這個解析度有希望提高
某位神不是說現有設備就行,只要升級軟體就好?神
可是特斯拉可以更新的是軟體 現在的硬體幾年後還跟
錯了?
得上嗎
跟不上就花點小錢升級,或花點小錢換車啊
在完全自駕上路前,事故當然是駕駛負責。完全自駕的
話,發生事故就是保險公司負責。自駕無法保證完全不
會發生意外,但肯定比人類駕駛強得多。你現在開一般
有ACC+車維的Lv2車,會覺得發生事故是車或車廠的責
任嗎?真能Lv5上路,保險費肯定遠遠低於你現在的保
費。因為事故率保證低很多很多。
另外28F,特的電腦是可以更新的。之前也曾經讓舊車主
更換過。現在的問題是,特認為視覺就足以達成完全自
駕,正反兩方都有各自論述。我是偏向支持特的看法,
畢竟你現在開車不就是靠視覺?而人類視覺用在道路上
這麼多年,如果都遵守交通規則,不犯蠢,不疲勞駕駛
不會有身體狀況,不路怒。你認為這樣的條件,難道事
故率不會大幅下降?事實是人類現在開得亂七八糟,但
是卻對“只能”大幅降低事故率的自駕系統滿臉不屑。
真的很可笑
3
笑死,你又把你自己的妄想拿來當證據了,啥“初代光達”! 20年前,連名稱都還沒統一叫Lidar時,就已經在研究使用光電感測器陣列直接生成三維影像了, 一開始研究光達的時候,就有人從雷射全像技術出發,從來沒有你想像的“一維”Lidar : : : 你講的應該是 Rolling Shutter 造成的果凍效應,7
提到光達,沒有人會扯到雷射全像術吧 維基百科介紹 LiDAR 原理時附的動畫如下: Velodyne 出的,早期被用於電動車的 LiDAR ,Waymo 還在用的,結構如下:1
笑死,光達輸出的資料從來就是三維的,只有一維的叫雷射測距儀。 如果是更早之前還在用LADAR為名的時代,還有更多是利用全像原理,用相位差生成三維資料的技術。 對系統來說,不過感測器是用甚麼原理,輸出的資料格式如果是三維的,那就是三維, 有差別的只是更新率而已。 而光達輸出的一直都是三維資料,即使是平面光達,也是三維資料降維。2
OK, 以雷達波的特性,的確如你說的,可以一個雷達波出去,同時有多組天線接收 這部分跟光達有差異。 : : 你講的 CMOS 果凍效應,不是 CMOS 的本質,而是數位化後,要將資料放在記憶體, : : 從記憶體讀取時有先後順序,這基本上是電子式的掃描,跟前面的機械式有差距。 : 這邊也是看不懂你在講三小11
這邊看完,我的感想只有“供三小?” 雷達與光達在原理上是利用掃描的方式,取得距離與向量,本質上資料的維度就是大於二維了。 是什麼時候變一維的?如果要這麼瞎扯,那鏡頭裡的CMOS一次也只能讀一個cell的資料, 一樣得要逐個掃描才能得到二維影像(這個就是所謂的果凍效應的成因), 照你的說法,鏡頭不也一樣是一維的?3
雷達基本上是機械動作在掃描 初代的光達也一樣,最新的發展小型化後,有搞陣列方式同時發射好幾組雷射,不過 解析度還是個問題 你講的 CMOS 果凍效應,不是 CMOS 的本質,而是數位化後,要將資料放在記憶體, 從記憶體讀取時有先後順序,這基本上是電子式的掃描,跟前面的機械式有差距。1
還是不曉得你在供三小 從雷達誕生以來,也從來沒出現過你口中的“一維”雷達 拿二戰裡的德國Lichtenstein雷達來說好了,雷達發射天線是固定在飛機的機首, 也沒有任何的機械機構讓天線搖動或轉動。7
直接看實際例子不就好了 在機車海的國家打開FSD 都能正常自輔駕 實際例子有什麼還能質疑的嗎9
目前應用的雷達跟光達在量測數據上還是有些不同 [雷達] 參考這篇文章18
首Po這個youtuber將FSD AI看到的畫面結合實際行車畫面 有幾個亮點, 你去觀察對向車道,或是更遠處都可以發現AI都可以清楚知道車子位置在哪 換句話說,FSD用了鏡頭就可以模擬光達的距離偵測了 這個技術已經被特斯拉提出為專利
34
Re: [討論] ACC撞防撞車是不是設計太智障其實感測器感測距離比人眼還遠,問題在感知上(確認前方是否有車) 自駕技術分 1. Sensing(感測) 2. Perception(感知) 3. Planning(規劃)13
Re: [閒聊] HDR+Gsync 到底是誰的鍋我覺得我可能沒說明得很清楚, ARSEN2007版友提供的資訊也是很巷子內的, 基本上如它所說, HDR跟xx-Sync本身就是有衝突的兩個功能, 而你說的狀況, 我這麼說吧, OS準備要進入HDR模式前一定會叫顯卡去問螢幕它能不能進入HDR,3
Re: [分享] 特斯拉FSD beta 來比眼力有沒有比AI好關於對車輛周遭環境的判別討論還不錯, 但是自動駕駛的進步還有一個關鍵就是駕駛行為, 何時該轉彎?如何轉彎?路口可以往前嚕一點再轉嗎?等等 參考影片: (看看特斯拉如何處理越過多線道左轉)- 影像、雷達、光達不太一樣,我把影像與雷達、光達拆成兩類好了,影像對於訊號處理來 說屬於二維陣列,但是雷達與光達可以帶回三維的目標資訊,雷達就是低頻段的光,因頻 率特性不同,所以適用場景不同,光達的脈衝時間很短,所以較於雷達相比,對於相同目 標,可以帶回更高精度的資訊。 光達的領域上有關延展性目標,可以參考K. Granstrom, M. Baum, and S. Reuter 所著
42
[問題] 100萬以下休旅車選擇10
[問題] 乙式險但不明原因10
[問車] 這是什麼車11
[問題] 請問一個胎壓問題5
Re: [閒聊] 一樣保護政策,中國成功,台灣卻失敗?7
[問題] 這台是什麼車6
[閒聊] 遇到怪怪輪胎店2
[閒聊] 檢舉達人檢舉過程中會被認定刑法公務員?5
Re: [閒聊] 一樣保護政策,中國成功,台灣卻失敗?4
Re: [閒聊] 一樣保護政策,中國成功,台灣卻失敗?3
[閒聊] 違停被檢舉還有便民服務 真暖心3
Re: [閒聊] 一樣保護政策,中國成功,台灣卻失敗?5
Re: [閒聊] 一樣保護政策,中國成功,台灣卻失敗?5
Re: [閒聊] 怎樣能防止停車場 右車門被A1
Re: [新聞] Honda Freed可能導入台灣?2
[心得] Swift hybrid 第二次保養工單分享8
Re: [閒聊] 怎樣能防止停車場 右車門被A15
[情報] Rolls-Royce Cullinan可能搭載H3
[問題] 轉速表有沒有可能是快樂錶?15
[問題] 汽車有衝壓進氣的設計嗎?3
Re: [新聞] 宛如科幻小說 馬斯克的未來地底隧道亮相