[分享] 特斯拉FSD beta 來比眼力有沒有比AI好
這個youtuber將FSD AI看到的畫面結合實際行車畫面
https://www.youtube.com/watch?v=qRjY55ELYnc
有幾個亮點, 你去觀察對向車道,或是更遠處都可以發現AI都可以清楚知道車子位置在哪
換句話說,FSD用了鏡頭就可以模擬光達的距離偵測了
這個技術已經被特斯拉提出為專利
https://uspto.report/patent/app/20200265247
特斯拉一直在訓練深度學習神經網絡,該神經網絡可以說是“偽LiDAR”所以馬斯克
認為根本不需要光達.靠鏡頭模擬即可,不服的人去看看AI所看到的畫面跟實際差異
再來. 要問大家在1分27秒處, AI感應到馬路中間有行人, 我想問看看多少人能在影片中
看到.如果看不到就代表AI的感知能力已經大於人類
如果還找不到 請看這張圖
https://i.imgur.com/khEAyN8.jpg
AI看到行人,並且以藍色框表示
我相信隨著數據繼續增加,AI深度學習,最後特斯拉仍然在自動駕駛處於統治地位
其他關於特斯拉這項技術的解釋
機器翻譯
特斯拉發布專利:“使用視覺圖像數據評估對象特性”以增強自動駕駛系統
為了操作自動駕駛系統,通常在汽車上安裝大量各種昂貴的傳感器。但是,特斯拉決定避免這種情況,並使用攝像頭構建自己的自動駕駛系統。這使AI學習過程變得複雜,但是它
具有許多關鍵優勢,並且可以為駕駛提供真正完整的自主權,被歸類為5級自主權。
特斯拉已經發布了一項專利“使用視覺圖像數據評估對象屬性”。公開的發明有助於基於
由車輛攝像機捕獲的圖像來接收數據,以便部分地識別物體與車輛的距離。
自主駕駛系統通常依賴於安裝眾多傳感器,包括視覺和發射距離傳感器的集合(例如,雷達,激光雷達,超聲波等)。通過收集每個傳感器捕獲的數據,系統可以了解車輛的環境並確定如何控制車輛。但是,隨著傳感器數量和類型的增加,系統的複雜性和成本也隨之增加。
例如,將發射距離傳感器(例如激光雷達)包括在大眾市場的車輛中通常是昂貴的。此外,每個附加傳感器都增加了自動駕駛系統的輸入帶寬要求。因此,特斯拉開始尋找車輛上傳感器的最佳配置。理想的配置應限制傳感器的總數,而不限制捕獲的數據的數量和類型,以準確描述周圍環境並安全地控制車輛。
該專利中描述的系統包括一個或多個耦合到存儲器的處理器。一個或多個處理器被配置為基於由車輛攝像機捕獲的圖像來接收圖像數據。然後,目標是利用此數據(作為對經過訓練的機器學習模型的輸入的基礎),以至少部分地識別物體與車輛的距離。機器學習模型已經使用訓練圖像和發射距離傳感器的相關輸出進行了訓練。
該專利描述了一種用於從視覺數據生成高度準確的機器學習結果的訓練技術。使用輔助傳感器數據(例如雷達和激光雷達結果),輔助數據與從視覺數據中識別出的對象相關聯,以準確估算對象屬性(例如距離)。在各個部分中,輔助數據與視覺數據的收集和關聯都是自動完成的,幾乎不需要人工干預。
--
看起來很炫泡但是連周圍靜止的自動停車都有機率撞
等上市再說吧,打槍文要多少有多少
1.運算資源龐大 2.計算距離精度還是不如光達&雷達
會喜歡特斯拉的妹子跟特粉一樣,腦袋也不會多好
3.VSLAM誤差模型複雜 4.深度學習無法做到100%成功
接4,所以目前還是需要另一套系統(ex:光達或4D雷達)
自動駕駛需要的是穩定的安全,但特的FSD更像是偶而
會有高超表現,但也可能犯低級錯誤
成本是個很大的問題吧目前
可惜阿威喜歡的妹子愛特斯拉
沒有喔 成本反而是鏡頭便宜 雖然光達也降超多了
對我來說 這系統已經非常讓駕駛人舒緩疲勞度了
就像用外掛 人類偶而幫忙操作一下即可
犯低級錯誤的問題就出在"感知"上AI不如人類
光達方案最後會在時間與金錢兩個前提上 先倒掉
笑死,你特斯拉會進步,光達就不會?
你是不知道光達成本降多少了嗎XD
光達成本下降特斯拉就等著跟特粉一起被掃進歷史的殘
渣裡去後悔自己自大狂妄的夢吧
重點其實不是光達 是高精地圖
光達要高精地圖 我就問 哪個廠商來製作 維護?
誰要出錢呢? 而且各家廠商自己做自己的
純靠視覺+深度學習方案沒辦法保證100%成功,又不用
高精地圖就像吸毒 如果不採視覺辨識就得用
高精地圖其實是一個快速的區域解
半導體製程也不會說因為沒有100%良率就終止方案
其他方案,不就祈禱視覺都不能失效(犯錯)
反事有個幾千幾萬PPM defect 很正常的
但是區域解 目前看起來商業價值不高
車用的你拿半導體來比.....天啊
錢大,重點是平面資訊的辨認,你不採視覺辨識
勢必就得用高精地圖
影片快轉過 沒快轉是能發現行人的
高精地圖沒有表示會動的車輛行人與不會動的障礙物
人家主流玩法就是光達+視覺+雷達三者都用互相彌補啊
要不然地面的停止線,各類平面指示牌要怎麼處理
副教part2來了
所以我問你嘛 誰出錢維護?
光達其實好過雷達很多沒有問題
光達還互相干擾
但是平面資訊 光達做不到 勢必就要高精或視覺擇一
所以其他自駕團隊都是用多感傳器(光達視覺都用啊)
光達其實很好 沒有問題 重點是平面資訊該怎麼處理
沒人叫你擇一啊 截長補短不行? 別套當冗餘設計不行?
現在看起來大部分還是採用光達+高精地圖多啊
你一用高精地圖,何必還要努力做視覺辨識
你訓練1個月才能認出消防栓 我高精地圖簡單多了
最好是.....看看nuscenes資料庫數據種類好嘛
其實光達+高精地圖簡單又安全啊 我覺得很棒
就算你說的對 目前沒有一間公司有這麼多錢完成
在一個區域內是很棒又穩定的答案
一個技術不可行的 擔心人家技術可行的沒錢完成XD
其實我也覺得純視覺方案能不能成功也很難講
要嘛有把握視覺做到99.999% 要嘛別的方案redundancy
比較完美還是視覺+光達,但現在還太貴
視覺靠深度學習喔 把深度學習當萬靈丹XD
我覺得馬斯克也是嘴砲居多,等光達價格下降
特斯拉還是會採用光達的
大哥,我不信在車上的駕駛這個暗度看不到行人
那是影片視角你才看不到,除非重度近視
謠傳是用Arbe的4D雷達啦,Musk就討厭光達了啊
真的,2D初音也成功模擬成真人
鏡頭看不到白色一樣撞車
影片中很多白色車都有看到
eddie FSD在1:24就看到 人類看不到
這個youtuber表示他在1:24是看不到的
特斯拉最大的問題是Google地圖太爛
不是很多白色車看得到就夠了捏 要實用商用化是要9
9.999%都能成功辨識欸 畢竟只靠單一方案
圖資錯了,除非特斯拉有內部修正,否怎怎樣都錯
看人吧 你認為要100% 但這FSD我會花錢
特斯拉不是單一方案,他是相機+雷達...
你自己看1:38,有一台車在左側,肉眼可見,結果車
子靜止後就從特斯拉的畫面消失了,一直到移動才又
出現,感謝你貼影片證明FSD beta還是會撞靜止貨櫃
開特斯拉上高雄高鐵四樓接送區,導航給的跟手機還
不一樣,什麼時候被陰都不知道
LV2 END
講雷達的,你知道目前的車用雷達包含Tesla使用的都
選擇不輸出靜止量測數據嗎.....
路上靜止的車都有表示出來
那你車在動,他有用到雷達有錯嗎?
不然他車上裝雷達幹嘛,搞笑嗎?
我講雷達你講視覺,那萬一靜止物視覺沒法正確感知
那台車不到一秒馬上又出現了
呢.....別的方案是?
基本上 看YOUTUBE上的留言 大多是讚賞的 跟這不一樣
我哪裡又說到視覺了?你可以看仔細點嗎?
這裡也就從頭到尾那幾隻特黑
現在不是在討論特斯拉的做法,又有什麼別的方案了?
可以先搞清楚問題嗎
我認為特黑應該貼一個很屌的自駕來打臉特斯拉
而不是在推文理吹毛求疵 終究銷量會打臉你們
R止物只能純靠視覺,是覺得都能成功萬無一失喔
不到一秒?你看半天不知道這是縮時攝影喔?
認真覺得特斯拉可以開專版.可以自己人交流優不會被
我覺得看到自駕進步很好啊,為何扯到特斯拉就反?
油羵牠黑干擾
如果他成功,很多車廠都可以採用不是?
有些人真的很崩潰XD
每關係後面10年我可以讓你繼續崩潰
自駕 原本就不是1和0,又不是他成功其他人就GG
你拿影片上來吹,推文看影片指出潛在危險不對嗎
https://i.imgur.com/KdxpDbi.png 說雷達往前看160m
跟車輛安全相關是靠視覺+深度學習單一方案做到100
%安全? 不用有其他方案來避免失效
我不曉得有什麼資訊明確說特斯拉沒有用雷達
雷達不會輸出靜止物量測資訊啊,遇到靜止物視覺又
他們官網自己說了,雷達往前看160m,專利也這樣發
沒法辨識怎麼辦?
所以什麼東西是靜止物?你確定特斯拉是照你說的做?
你車在動,所有的東西都是相對在動
所有東西相對在動怎麼還會撞靜止貨櫃?
你去問特斯拉啊XD
因為這套FSD beta還不完美,還是很多問題
現在車用的雷達就不具備高度資訊,你不把靜止物濾
掉是想感測到號誌還是立牌就誤作動喔,問這種問題
.....
不過不錯了啦...不是嗎?
不然幹嘛爭相研發4D雷達
人去開都沒有100%安全了
人開當然沒有100%安全,但總不能肉眼清晰可見的車
輛,會忽然消失在特斯拉的視野中,然後還要相信它
很安全吧
他沒有從頭到尾都不見 這些問題在beta可以改善的
我坐在車裡是能看到行人的 但影片被調過 我就無法
目前車用毫米波雷達,2018年TI的產品解析度就到5cm
歐美也訂了車用毫米波雷達標準77GHz,解析度約4cm
而且我看了其他影片 停紅燈時 都有機率消失
以前用24GHz,因此解析度較差
7:25秒 右側多台等紅燈的車 一停後會消失
所以簡單來說FSD beta還是沒克服撞靜止物的問題
個人推測是為了省運算力故意暫時排除
不 我認為是故意的
省運算力…你文組的嗎?
你說無法排除靜止物 明明影片那麼多靜止物 你文組?
不是省略運送,是因為雷達只有平面資訊沒有高度資
訊,不濾掉靜止物是想偵測到號誌人孔蓋三不五時就
誤作動嗎?
這很難理解嗎?特斯拉早就能認出靜止的垃圾筒跟三
角錐,卻還是會撞上靜止的貨櫃,代表辨認靜止物並
不能一體適用,但偏偏路上的靜止車輛跟貨櫃會消失
在特斯拉的視野啊
在講車用雷達限制,某w在你
那扯精度.....
這就是推文一直在討論的,光靠2D的資訊有它的先天
限制與必要的妥協,你都沒在看推文?
你怎麼一直講撞貨櫃阿 那時候是用FSD Beta?
錢大,有沒有覺得,某人跟水桶中某人很像??
因為你的影片證明FSD beta對辨認靜止物還是不夠成
熟啊
那你解釋一下路邊靜止的車怎麼都看的到
影像辨識啊,跟認垃圾筒不是一樣原理嗎
請問現在毫米波雷達陣列掃3D場景資訊,有什限制
?
T1 2019年出毫米波雷達陣列
好煩喔為什麼一直都有狂熱特粉再戰這種東西啦,走了
一個教主桶了一個副教現在有來一個不知哪邊的小丑,
你們煩不煩啊?還是都是同一個人一直買帳號?好啦特
斯拉最強啦爽了嗎?
它辨識的出來就等於它看到垃圾筒,反之影像認不出
來的垃圾筒會消失在它的視野,車輛跟貨櫃也是
所以你的影片證明FSD beta還是有撞靜止物的潛在風
險,這樣有很難懂嗎?
我不知道你們說誰啊 還是你們從2018年黑到2021阿
拿現場攝影機看到的跟螢幕書出來比?要比的話
也是要人在現場看才能比
目前車用毫米波雷達只有平面沒有高度資訊!所以地
面人孔蓋懸在空中的號誌橋樑都有可能感測到,造成
系統誤作動誤煞車,所以才有廠商在研發4D雷達
就算雷達陣列,掃出來的都是在同個平面的data,系
統哪知道是車還是號誌人孔蓋,所以才會需要濾掉雷
達感測到的靜止物量測數據
你知道自駕車需要redundancy設計嗎
0227可以不要一直灌輸錯誤資訊嗎 雷達並非沒有高度
資訊 是高度方向的解析度差 所以無法有效辨識靜止物
2018就知道了... https://youtu.be/Yyak-U2vPxM
2018年
neverfly應該是新朋友 這邊說明一下 之前V9大改版增
加很多物體顯示 例如車道線 一開始也是狂抖狂閃 這
只是畫面處理還沒做好 完全不代表辨識出問題...
幫補血Haters gonna hate
特粉來傳教了嗎?
車用雷達量測物體距離、角度、相對逕向速度
雷達不能測高,還是受限於波束成像問題
請問如何分辨偵測物體是車、人、人孔蓋還是號誌?
動靜物體還好分,可以算多普勒頻率
靜態物體區別很難
車廠常用作法是把雷達測到的靜止訊號濾掉省麻煩就是
人眼的動態範圍比鏡頭高很多 影片周邊這麼暗不代表
實際這麼暗
雷達的脈寬相對於光達太長,並不適合
最精準判別就是光達了
NXP認為他們的產品能達到的image radar效果
airforce1101對感測講的比我正確且清楚很多
他們認為他們可以判斷通道空間高度
@walelile 那是4D雷達 目前市售車沒有配置4D雷達
不是AI強,是Sony強。星光夜視,紅外線濾波,熱像
鏡。濃霧都能看透。能看的到才能tag AI才能作功。
索尼三星都很拼這塊,手機相機都是微利
RadSee 4D Radar https://youtu.be/h7t-6_wiZKM
Arbe 4D Radar https://youtu.be/Yc4MfzbbtuI
CV(特斯拉的方法)其實滿受限於天氣的
他就是一個視力30倍的人眼 外加100倍的專注力
我倒是滿有興趣看看暴雨跟濃霧下FSD表現如何
4D雷達看介紹,用連續波
關鍵在於後級的處理器
連續波就沒有解析度問題,回波也會是連續
並不是脈衝雷達
毫米波比多數的物體尺寸短,也落在光學反射區
少了高頻光對於較差氣候的衰減影像
爆雨和濃霧AP就抓得到標線了
Musk三月的推文有說考慮把雷達取消掉,獨尊視覺
小鵬贏特斯拉的自動停車是純視覺方案,台灣設計的
沒光達想挑戰三寶 早點洗洗睡
純視覺方案怎麼做最多就是人類水準 無法遠超人類
AI一定比人好我相信 但純影像好不好 搞不好Tesla rd
想要光達到爆
牽涉安全的電子系統最關鍵就是要盡可能多的設計冗餘
量提高可靠度
還是需要雷射跟光達來Double確認是不是誤判
ai眼力這麼好怎麼還會高速衝撞貨車@@
FSD跟目前在跑的AP不太一樣 衝撞貨車是因為AP目前主
要還是以雷達波為主 所有以雷達波的Lv2都有這問題
教主鬼隱 副教主水桶 新教主來了?
相位陣列雷達用連續波?
雖然說江山代有才人出 不過 怎麼比教主和副教都弱
?
獨尊視覺,結果像素120萬……就像你開車近視不戴眼
鏡說自己多強又多強,然後就撞躺平貨車惹QQ
3
笑死,你又把你自己的妄想拿來當證據了,啥“初代光達”! 20年前,連名稱都還沒統一叫Lidar時,就已經在研究使用光電感測器陣列直接生成三維影像了, 一開始研究光達的時候,就有人從雷射全像技術出發,從來沒有你想像的“一維”Lidar : : : 你講的應該是 Rolling Shutter 造成的果凍效應,7
提到光達,沒有人會扯到雷射全像術吧 維基百科介紹 LiDAR 原理時附的動畫如下: Velodyne 出的,早期被用於電動車的 LiDAR ,Waymo 還在用的,結構如下:1
笑死,光達輸出的資料從來就是三維的,只有一維的叫雷射測距儀。 如果是更早之前還在用LADAR為名的時代,還有更多是利用全像原理,用相位差生成三維資料的技術。 對系統來說,不過感測器是用甚麼原理,輸出的資料格式如果是三維的,那就是三維, 有差別的只是更新率而已。 而光達輸出的一直都是三維資料,即使是平面光達,也是三維資料降維。6
我沒說光達最後的輸出資料不是三維,我只是說初代的光達是用一維的雷射測距,經巧 妙設計後得到三維的資料 : : 你講的應該是 Rolling Shutter 造成的果凍效應, : : CMOS 會採取 Rolling Shutter 有很多因素,例如為了功耗、快門速度、共用元件等 : : CMOS 後來也有 Global Shutter 的設計2
OK, 以雷達波的特性,的確如你說的,可以一個雷達波出去,同時有多組天線接收 這部分跟光達有差異。 : : 你講的 CMOS 果凍效應,不是 CMOS 的本質,而是數位化後,要將資料放在記憶體, : : 從記憶體讀取時有先後順序,這基本上是電子式的掃描,跟前面的機械式有差距。 : 這邊也是看不懂你在講三小11
這邊看完,我的感想只有“供三小?” 雷達與光達在原理上是利用掃描的方式,取得距離與向量,本質上資料的維度就是大於二維了。 是什麼時候變一維的?如果要這麼瞎扯,那鏡頭裡的CMOS一次也只能讀一個cell的資料, 一樣得要逐個掃描才能得到二維影像(這個就是所謂的果凍效應的成因), 照你的說法,鏡頭不也一樣是一維的?3
雷達基本上是機械動作在掃描 初代的光達也一樣,最新的發展小型化後,有搞陣列方式同時發射好幾組雷射,不過 解析度還是個問題 你講的 CMOS 果凍效應,不是 CMOS 的本質,而是數位化後,要將資料放在記憶體, 從記憶體讀取時有先後順序,這基本上是電子式的掃描,跟前面的機械式有差距。1
還是不曉得你在供三小 從雷達誕生以來,也從來沒出現過你口中的“一維”雷達 拿二戰裡的德國Lichtenstein雷達來說好了,雷達發射天線是固定在飛機的機首, 也沒有任何的機械機構讓天線搖動或轉動。7
直接看實際例子不就好了 在機車海的國家打開FSD 都能正常自輔駕 實際例子有什麼還能質疑的嗎9
目前應用的雷達跟光達在量測數據上還是有些不同 [雷達] 參考這篇文章
11
[分享] 特斯拉高管揭秘自動駕駛技術:48種神經網這一篇文章是根據Tesla Autopilot 部門主管Andrej Karpathy 在二月份時所 做的一場演講寫的。Andrej Karpathy 專門研究深度學習以及影像識別,他在 史丹佛大學念博士時是李飛飛的學生,畢業後加入OpenAI,2017年時加入Tesla。 他在這場演講時提到很多Tesla 目前正在做的事情,其中最有趣的應該是利用 軟體算法製造出鳥瞰圖,以及如何應用軟體算法來辨識距離,甚至可以做到辨5
Re: [新聞] Luminar的LiDAR解決方案獲得更多汽車廠商原文: 對岸摘要: 基本上就是tesla的20位工程師不段測試後3
Re: [問卦] AI畫奶的功力怎麼進步這麼快的?AI畫奶的技術是一種基於深度學習和圖像處理技術的應用,隨著機器學習和計算機視覺的 不斷發展,其技術水平也在不斷提高。 在過去的幾年中,AI畫奶技術已經經歷了許多重要的進步,其中包括以下幾點: 數據集的增加:AI算法需要大量的數據來進行訓練和優化, 隨著數據集的增加,AI算法可以更好地理解不同類型的圖像,從而提高奶畫的質量。3
Re: [分享] 特斯拉FSD beta 來比眼力有沒有比AI好關於對車輛周遭環境的判別討論還不錯, 但是自動駕駛的進步還有一個關鍵就是駕駛行為, 何時該轉彎?如何轉彎?路口可以往前嚕一點再轉嗎?等等 參考影片: (看看特斯拉如何處理越過多線道左轉)
20
Re: [心得] RAV4後車廂真的很能裝25
[問題] Lexus NX200 vs Skoda Kodiaq 1.5TSI20
[問題] 都有用中油卡嗎?14
[閒聊] 為什麼頭又大沒有rx大小的休旅車14
[心得] 小短腿IX2開箱4X
[問題] LM是不是變速箱很爛啊?6
[問題] 前引擎保護墊拔掉可以嗎?2
[心得] 調撥車道3
Re: [情報] 哇靠 小改Picanto直接漲到79萬 瘋了?1
Re: [閒聊] 大車加裝環景推行困難的點在哪?15
[情報] Rolls-Royce Cullinan可能搭載H3
[問題] 轉速表有沒有可能是快樂錶?15
[問題] 汽車有衝壓進氣的設計嗎?3
Re: [新聞] 宛如科幻小說 馬斯克的未來地底隧道亮相