Re: [閒聊] Tesla:LIDAR
※ 引述《leefengynh (/65G ・ 125/250K1W)》之銘言:
: 看起來是造假的
: https://imgur.com/5KHC7Ew
: https://imgur.com/RnPOd5C
: 撞車前一秒就把AP取消了 畫面中汽車旁邊兩條藍線消失 就代表AP已經取消了
: 目前還是找不出哪一家車廠的自動駕駛能趕上特斯拉fsd的
你說了一堆,其實你的理論根本沒搞清楚狀況
今天Mark Rober的實驗,就是故意去製造純視覺的障礙
他收了LiDar的贊助,就是要表現出純視覺的限制阿
你在那邊瞎扯一堆,但純視覺物理限制還是在那邊
我先問,AP的AEB功能跟FSD的資訊輸入源頭是不是都是攝影機?
那你怎麼覺得在同樣輸入源的情況,FSD能展現出與AP不同的天眼通?
還是你要說Tesla為了賣FSD沒把AP的AEB能力升級到天眼通的能力?
其實很多人把LiDar拿來當所謂的自動駕駛控制設備
但根本搞錯方向,LiDar只是其中一個訊號接收源而已,如同攝影機或雷達
FSD是在"攝影機"可視情況下透過類神經網路演算法達到高度自動駕駛控制
那你說FSD未來能不能整合LiDar? 廢話當然可以,甚至這樣組合的FSD一定更強
老實說我覺得FSD在面對一些極端環境應該就停下來或是關閉
Tesla為什麼不用LiDar? 因為成本考量阿
哪天LiDar價格下降會不會轉彎也不知道
事實上,Nvidia solution就是準備純視覺+LiDar以及各式各樣感測器的混合體
當然用得起老黃產品的車廠大概也都是豪華車等級 (Mercedes/Volvo/JLR之類的)
Tesla現在走的很前面沒錯,但老黃純視覺也不是吃素的
很多人看到Tesla就急急忙忙跳出來護航或跳出來嘲諷
根本沒搞清楚整件事情的本質和設備
你今天換成LiDar要你去辨識路標、顏色之類也是不可能
我也承認純視覺是邁入高階自駕的主力,但LiDar目前看起來是完成純自駕的最後防線
兩者本質上是可以互補的
不要因為Tesla想省成本就在那邊搞非A即B好嗎
--
不過這影片有問題的地方不在這裡
其實這是一個很好證明LiDAR能在某些情況下有用的機會
但是看起來Mark Rober搞砸了 造成只能當相罵本了
至於路上有多少機會碰到這種scenario我覺得反而是其次
就算路上碰不到 這也是個很好的POC案例
不要不懂裝懂了啦
會不會撞是由演算法決定的
人類為什麼看得出那是塊板子
ai就看不出來
廢話一堆
ai的智商是由演算決定的
而fsd就是不會撞 所以他才不敢用fsd測試
而ap也不會撞 所以他才故意關掉ap
而aeb可以事前先關閉 所以aeb才沒發揮作用
整件事就是他開車自己去撞的xdddd
無腦特粉會說激光雷達會干擾
要講liadar多強
先舉實際已經在路上跑的產品出來
不要自己幻想 根本還沒出現在地球上的產品xdddd
事實上就是lidar的自駕車已經在路上跑的去全部不如純
視覺
光達多強都是幻想出來的 xdxd
實際產品都生不出來
什麼nvidia說要合作做自駕車幾年了
人類看得出來因為對不規則反光的處理啊,
生出什麼屁了
光達就是直接對反射做處理
特斯拉都已經獲得加州無人計程車營運許可了
老黃的車在哪裡xdddddd
人類看得出來 是因為大腦的視覺聯合區解析的出來
er... Waymo就是LiDAR solution阿
不過應該不是使用老黃的那套就是
你的大腦視覺聯合區被打爛 你就算有視覺 你也判斷不
出什麼鬼lol
而視覺聯合區 在ai內就是所謂的演算法
我倒是覺得成本不是最大障礙 障礙在於LiDAR無法像純視
Z大我最近有去試(舊)MYP,還蠻好玩的說
覺一樣快速從影片中獲得學習能力
特斯拉已經公開解釋好幾次為何不用Lidar了 包括發表會和
法說會 甚至外資論壇 和省成本沒有關係
不是為了成本FSD+LiDar的Integration絕對更強啦 純視覺很強,但就是有物理限制阿,攝影鏡頭終究還是平面用演算法去判斷 光達可以打反射出來繪製出3D
waymo出包還不夠多嗎 居然有人敢舉waymo xddd
搞了10年全美至今才709台車
你們卻不知道他滿是問題lol
其實我覺得說省成本的可能是跟前保桿攝影機混為一談了
那個就真的完全就是成本考量 XD
Waymo出包規出包 但是它的確是運營中的LiDAR Solution
這裡很多草包不知道waymo很弱xddd
waymo後台 人車比是1:2
用1個人在開2台車
你跟我說光達車有什麼好績效xddd
waymo的遠程接管比例多高
人的視覺就不包括lidar。如果是要類人駕駛靠純視覺+演算法
需要1個人盯著2台車
終究可以。多幾個攝影機或lidar則可以超越人類駕駛
他弱歸弱 但是的確是LiDAR Solution目前最遠的 而且說
起來也至少要等Cybercub運營個一陣子再來比較吧
waymo的安全性統計起來比全美人類司機還低 還光達勒
lidar不是人類的經驗,很難用人協助訓練吧
每40萬英里就出現一次報警事故
全美人類是70萬
waymo搞了10年才勉強逼近40萬 最近幾年已經在40萬停
滯不前
光達車看waymo那個死樣子 極限就是那樣
另外一家光達車 cruise已經退出市場了
可以合理預期Cybercab表現更好啦 但是先等看看吧
cruise直接輾過人 你跟我說光達好棒棒xddd?
waymo 你大概沒看過 載著乘客直接失控原地繞圈的新聞
需要後台用1個人類 接管2台車
而不是1個人類 管20台車
就可以知道waymo 遇到很多場景走不動需要人類解圍的
比率有多高了xddd
如果waymo的自駕技術靠譜
早就幾萬台遍佈全美了
還會搞了幾百年才700台車?
全美計程車+uber+lyft有100萬台
你waymo玩了10年 700台 明眼人都知道技術遇到瓶頸了
你根本搞不清楚我說的 純視覺是高等級自動駕駛主力沒問題,但LiDar可以成為最後一道防線 讓車子更安全、偵測距離更遠、範圍更廣 兩者可以互補而不是只能擇一
先等特斯拉上線有實績再說吧,不然說誰一定強也沒結果
er..你是老頭嗎 一直重覆一些大家都知道的事 =_=a?
就是因為只有這水準 所以他只能一直洗一樣的吧
真的 特斯拉的AEB數據就是不如對岸光達車 但是FSD智駕
能力又比對岸光達車強 懷疑是AEB沒加入AI演算
因為特斯拉晚間AEB大概只能到7-80公里煞停 但是華為
的可以到110
很懷疑是為了賣FSD所以把AEB AP的算力閹掉了
但另一個角度 有買FSD的車子在人駕時 AEB看測試也沒
變好 一樣爛 跟傳統車廠差不多
「lidar成為最後一道防線」
這就是光達派「靠感覺」所說出的一句話
事實上lidar和鏡頭 很常發生矛盾的情況
「矛盾傳感器」是不能讓你作為安全冗餘使用的
一個傳感器判斷前面是硬物障礙物 要剎車
一個傳感器判斷前面是氣體障礙物 要緩慢通過
請問要聽誰的?
用最高標準去把它當硬物煞車
明明只是濃霧 你急煞被後車追撞嗎
AEB可以請關掉
那個人已經被證明造假
既然是造假仔 那合理推斷就是會偷把aeb關掉
aeb不是ai
你去看之前的實測影片 特斯拉AEB很多場景就是沒反應
不然就是太晚 我自己本人也撞過
....可以確定某l一竅不通只會洗文了
就一直以為「光達=超感官」真的笑死
光達明明就某某些方面比人眼強
但多數方面都比人眼還廢
航空器早就都有類似的實作 在那邊洗文
你kira925先讀書再來吧 連光達的缺點是什麼都不知道
就幻想超感官xddd
別跟那個身分仔講話= =
@l 我覺得跟光達無關 因為同樣有光達的車 AEB程度還是
有差 我覺得是特斯拉AEB沒套好AI
航空器用雷達居多 誰跟你用光達
那三個字只有你在寫
特斯拉的AEB看起來就跟傳統車廠差不多
你慢慢洗文 慢走不送
航空跟開車一樣嗎
天空又不像路面擁擠 開飛機就算都人眼都被雲層擋住
也沒差
講不出個屁 人就走了 xdddd
那不如一開始就不要浮出來
航空器裝光達 我聽過最好笑的笑話
還是你雷達跟光達分不清楚xdd
冗餘度跟多數決 誰跟你在那邊分高低
光達還是雷達根本不是重點
光達 vs 純視覺 就只剩你們這群外行人一直在爭
業界都在拼演算法了
拿rule based時代的議題來爭 全部是韭菜
你真的以為waymo或市面上的光達車
他們裝光達 是為了冗餘嗎?
他們裝光達 不是為了冗餘耶
他們的感知層只會輸出一個結果
而不是兩個結果
既然只輸出一個結果 哪來冗餘之說
胡説八道
waymo會裝光達 只不過是要使用高精度地圖 有了高精度
地圖
那麼ai智商就不用這麼高
也就是演算法的技術門檻就比較低
可以快速商業化
哪是為了安全冗餘 笑死
蘋果手機不就有光達?
但是惡果也馬上浮現
就是司機成本只能降低50%
1人管2台車 費用也比人工計程車還貴
演算法低智商
遇到一堆狀況需要後台人類解圍
成本降不下來 沒在高精度地圖覆蓋區域無法駕駛
xdddd
偷吃步 難怪技術遇到瓶頸
光達車就是沒高精度地圖覆蓋的區域 連正常的轉彎都沒
辦法xddd
這就是軌道車 不是靠車子臨場去解析道路的3D結構
而是預先要輸入道路3D結構給汽車
這根本危險 因為道路3D結構會一直改變
那你就要每幾個禮拜重制一次地圖
笑死 難怪只有700台 無法擴大到全美
不用管特鐵粉啦,煥新Y出來之前還不是講方向燈撥桿跟
前鏡頭沒必要,最後自己被打臉,這些人都不會認錯的
依賴高精度地圖的自駕絕對不是solution
那只是軌道車 不叫自駕
幾乎所有光達車都依賴預先輸入高精度地圖
車子臨場對道路3d結構拓撲解析的能力很低
這種做法非常危險 萬一遇到修路 道路結構改變 而你3
d高精度地圖沒有即時更新
車子直接車禍
而且只能在固定區域才能自駕 xddd
其實多感測器就是能互相補足單一感測器在某些工況底下
的限制,理論上就是裝越多越好,現在的問題是成本問題
而已,就是這麼簡單的道理。但是特鐵粉不知道為什麼就
是愛Diss特斯拉方案以外的其他東西,每個都好像是在幫
馬斯克工作一樣。這些特鐵粉當初還嘲笑Toyota說會變成
我沒講前鏡頭不重要啊
Nokia咧,每個都是差不多這樣,不用跟他們爭執什麼
不要故意幻想我講的好嘛
可悲韭菜東西xddd
前鏡頭超香的好嗎
當然不是裝越多越好
這只要有在玩智慧家庭自動化的人都能理解
「同一類的傳感器」越多 的確越好
「不同類的傳感器」越多不一定越好
因為不同類的傳感器會造成矛盾 打架
就是這麼簡單 而不是互補
我以為AI演算法本來就會有一堆決策出來,然後根據分數去做決定不是嗎 沒道理多一個3D建模會更差
嗯嗯我沒點名誰,你不用對號入座
傳感器越多越好 怎麼不去叫feijq裝光達? 笑死
飛機只有雷達 沒有光達好危險 不去哭哭嗎xdddds
從教主 副教 現在又一個
不要理會就好
你們這群外行韭菜「靠感覺論述」到中毒了
文組腦xddd
文組腦袋? 你多一個3D建模資訊來源會讓自動駕駛更差的意思? 你真的理解AI嗎....
原文說AP被取消,FSD更不可能開啟
你這篇連原文都誤解根本廢文一篇
那就更有問題了 當AP/FSD都被取消狀態下,你的AEB判斷能力大幅下降 這樣可以嗎?
純視覺無法穿透迷霧的,除非用的是熱成像或紅外線照射,
特斯拉應該有裝這東西吧?
你才搞不清楚狀況 AP和FSD都沒開好嗎
沒開AP/FSD AEB判斷能力就會掉一大截這種說法有點奇怪
在激動什麼 有光達加上相機的技術依定比只有單一技術好
這有什麼好討論的?阿你多一項數據可以來分析咩
現在不裝單純太貴 等國產的更捲一點就可以了
飛機需不需要光達我不知道 但是沒理由多了一個3D資訊源
會變更差的 樓上到底在吵啥
講攏餘度的意思是 飛機會有多重獨立的感測器系統
同時作出獨立決定 然後會有多數決(可能是三重不同決策)
而不是什麼AI怎樣 rule based怎樣 這是在那之前的東西
在那邊炒光達雷達的字面吵架不知道在搞什麼...
寫一堆情緒性文字 不知道哪來的狂粉
呂布不用AK只用方天化戟一定是因為現代武器比較爛
AEB是可以關的 影片都故意造假了你確定他沒關?
光達 + 純視覺AI 又不衝突
特斯拉粉絲就是這樣才會讓人對特斯拉觀感其差
一對特斯拉有疑問就人身攻擊 無法正常討論
車版不是你特粉一言堂的宣傳工具
是不同意見討論的場所
現在很多掃地機器人都在用 很便宜惹啊
意見不同就說別人 廢話 屁 外行韭菜 文組腦 然後一堆x
ddd 阿這就沒要討論的意思啦
你各位就當某人今年來吃-50%需要一個大平台洩恨
你比特所有研發員都聰明,特不用原因根本不是成本問題
特說過光達會跟現有計算造成影響,就繼續腦補可以合用
因為Tesla一開始就打定主意不要Integrate LiDar solution... 老黃的就有
你跟這位股板跑來的新警察講沒啥用啦 現在可能正因這幾個
月狂跌坐立不安
只要能解決顧客需求的方案都行 顧客哪有差
LiDar 的判斷會增加false alarm 拖累效能,其實也是省成本
的一環
今天這個實驗就是業界內部訓練舉出視覺判斷盲點的經典例子
,7-8年前就有的東西
馬斯克減成本的藉口被拿來當聖經喔 笑死
覺得依龍馬沒有僱用你真的太可惜了 如果有你的指導
以前就看過朋友的老闆不知道哪要來的影像叫他加進去訓練
特斯拉統一自駕的天下真的是指日可待 你想到它們想不到的
然後原本的正確度從略超過90%,驟降到6、70%,後來改參數
也是只能到80%左右,後來老板叫他換其他模型試試,後續我
就不知道怎樣了,從我聽到的經驗,加入Lidar對現有結果產
生不良的影響其實相當合理
光學鏡頭 光達 雷達 超音波 通通都做到車上
只看特要不要花這些成本去做而已,我朋友是因為要畢業不得
不做
訓練資料很怕衝突 你一直教他1 2 3後面會是4 突然出現
幾筆資料1 2 3後面接100 這樣模型會變得很不穩定
視覺+光學整合是在自然界中很少見的,整合進AI 就是加成本
沒錯
修正:視覺+光達
其實不能這樣說,人眼的機構其實很誇張 視網膜Fovea幾乎等於高解析度+gimballed autofocusing stereoscopic的傳感器 目前硬體無法達到這個等級
特斯拉應該不是沒想過,一來這會拖慢自動駕駛開發速度,二
來這情況在現實發生的機率大概一輩子都不會遇到,三來正常
人類視覺判斷就可以99%時間避免是故,更何況AI是集人勒視覺
能力大成
有人從小教育就是服從 連獨立思考提出質疑都不會
老黃的車在哪? 明明就一個外行 連老黃在賣什麼都不
知道xddd
發現現實生活中的光達車都打不贏fsd了
就幻想一個「老黃的自駕車」出來
老黃Solution =/= 老黃自駕車 我覺得你常常搞混東西 Mercedes/Volvo目前都是用老黃Solution,而Mercedes是可以拿到Lv3的
然後產品到底在哪xdddd
然後就自己生出一個一個意識形態
「傳感器多一點 資訊比較多 一定好」
生成式ai 放入 光達和視覺 兩者訓練出來的ai就沒一個
比純視覺強 然後你在那邊靠感覺
資訊自然越多越好,是現在AI模型,演算法或是算力的限制才
顯得純視覺是目前最佳解
AI也是要GPU和記憶體到位才顯得有效益
早期特斯拉的車都有雷達
誰跟你「特斯拉一開始打定要純視覺」
雷達+視覺就是無法在「生成ai架構下」訓練出好的結果
特斯拉才關閉舊車上面的雷達
什麼特斯拉一開始打定純視覺 胡說八道
特斯拉一開始是雷達+視覺
實證下來就是比純視覺差
你去買2018年的特斯拉 哪台車沒雷達
笑死
特斯拉自動駕駛的確很早就走純視覺
2017-2018大概就確立方向
是說關於Waymo發展慢我認為不光是技術瓶頸啦,州政府
法規、市場接受度、造車成本都是發展緩慢的原因之一
,但仍是市場領先者、先行者
從一開始就只可能sensor fusion 過L5了
*是指自駕計程車
現在的ai模型就不是資訊越多越好
亂餵一通模型就長的好
餵的東西 和 演算法 才是重點
模型才不會長歪
聽文組腦在那邊靠感覺
以為把視覺和雷達資訊都餵進去
ai模型長出來的能力值就會大於只餵視覺
可是這件事一直都是你自己在幻想的
不是嗎
特斯拉早期用雷達+視覺效果就不好
然後你還在幻想都拿去餵ai 會更強lol
人眼構造根本不是當代攝影機硬體可以比得上的,因此需要輔助感測器
很早的時候,低成本自動駕駛解決方案很多就走純視覺,中國
也一堆在搞,所以自駕才會追得那麼快
就演算法跟不上資訊量才顯得純視覺是目前最佳,這有什麼好
演算法跟得上啦 只是Tesla懶得打掉重練把LiDar放進去
跳針的...
中國沒半間自駕走純視覺
純視覺是技術最難的
要趕快商業化賣錢的話 車廠不可能純視覺
這裡的人都講一堆奇怪跟現實世界完全反過來的話
那種平常沒在研究自駕議題 看到ptt人家在討論就湊過
沒在研究是你覺得沒在研究....
來 講一堆常識以外的笑話
真的快笑死
純視覺才不是低成本
純視覺等於你的軟體研發期會拉的更長
因為硬體少 你就必須用軟體補足硬體
軟體研發會拉得很長
用光達建立高清地圖才是最快商業化的途徑
市面上包含中國全部都是走光達模式
只有特斯拉是純視覺
但是waymo 中國自駕到頭來都沒比較強
你把LiDar當成只能搭配高清地圖當成一個Solution很奇怪
人眼的構造 攝影機比不上??
黑人問號
我家攝影機全黑暗房間中看得一清二楚
人眼完全看不到
你說人眼比較強xddd?
然後你這文組硬體代工腦
怎麼一直把重點放在「眼睛」「攝影機」這種硬體
重點明明就是軟體
明明就是「人類大腦」 「ai演算法」
人眼視覺沒這麼強
人類會開車是因為我們的大腦 從來不是因為我們的視覺
有多強
真的笑死 硬體腦
你們這種外行人
到最後就是淪為意識形態
你的意識形態就是幻想「多傳感器一定棒」
最簡單破解的辦法
就是叫你們這種外行人舉出市面上實際已經在行駛的自
駕系統 採用光達 有無贏純視覺
這樣最簡單
講理論你根本聽不懂
講半天舉不出個屁
中國光達成本都降多低了
中國自駕玩光達都玩多久了
哪家超越特拉斯fsd?
waymo搞的時間比中國更久
怎麼只有700台 安全性 接管率怎麼無法在變更強xddd
人眼比攝影機強 ?笑死
這就是曲博看太多的後遺症
你以為你看過的東西 我會沒看過xddd
別人隨便講一句 你照抄不思考 就是準備被打臉
其實你說的曲博是誰我根本不知道 Tesla無法使用LiDar很簡單,ML是需要大量的訓練 你今天多一個LiDar他的訓練幾乎要打掉重來,自動駕駛就是依靠大量訓練 但你多一個不同形式的資訊放進來幾乎是要打掉重來了 Tesla在早期就訂下目標,走最低成本的純視覺 並不代表LiDar+視覺 solution不存在而且不會更好 事實上Fusion一直是突破Lv3的唯一解答
※ 編輯: zzahoward (136.226.240.114 臺灣), 03/19/2025 14:06:29[新聞]NVIDIA搶攻自駕車市場!推模組化設計平台,
賓士、通用汽車都成客戶
2021.11.11
所以你口中「老黃的車」
2021年就開始合作了
現在市面上看到什麼產品了?
賓士自駕在哪?
通用自駕在哪?
喔
通用的自駕 cruise已經撞死人退出市場了
通用汽車已經放棄自駕研發了
這就是你的大絕招「老黃的車」
原來通用就是和老黃合作
然後現在放棄不玩了xddd
光你講視覺+雷達是訓練不出好結果就知道你是文組了 邏輯上
做不出來是最難證明的 會講這種話就知道邏輯能力不怎麼樣
[新聞]通用不玩了!重組Cruise 退出機器人計程車市
場僅剩特斯拉、Waymo兩強爭霸
你沒做過你怎麼知道做不出來 特只是因為現有模型加入lidar
你們都討論錯方向了吧...
會影響結果, 不代表他們如果願意花時間重新做一樣做不出來
特黑水準只有這樣嗎...AP跟FSD都搞不懂就別來亂了吧
FSD端到端 就沒有光達啊...
特斯拉已經做過「雷達+視覺」 特斯拉做出來的效果 比
純視覺差
所以才關閉所有舊車上的雷達
這不就是證明了
AP才有視覺融化 雷達光達之類的可以討論
你的邏輯真的要加強
Tesla當初關閉雷達是因為押寶純視覺
雷達和光達都分不清楚的文組
最基本的智慧家庭先去玩玩了解一下傳感器 不要只會在
電腦前面幻想
跟FSD端到端沒什麼關係
你可能不知道有時候模型要重新設計吧 如果搞到重新設計就
tesla關閉雷達 是因為「雷達+視覺」訓練出來輸給「純
視覺」 不是押寶
是重頭來過 是特不願意花那成本改善那可能只有1%的狀況 還
端到端是2024年的事情了
是他"能力"上做不出來 這是兩回事
在2020以前特斯拉就已經發現「多傳感器和視覺融合」
https://www.nuscenes.org/ 主流還是多種類型感測器
模型會歪掉
特斯拉2020左右就有先用「多傳感器」內部訓練發現不
行
2024才用全視覺端到端訓練
會歪掉本來就很正常好嘛 AI有部分論文就是一直有新的架構
很多都是因為會歪掉 達不到好的結果
最簡單的就是請你們這群文組韭菜去找出任何一家多傳
去看CVPR 2025 依舊各種感測器類型都有,說純視覺不
感器的自駕影片來證明贏過fsd
找不出來 就代表地球上還不存在多傳感器贏過純視覺
這不就最簡單
你們在那意識形態 可以改變現實嗎
曉得活在哪個平行世界
算了 不可與夏蟲語冰 你繼續活在你的世界吧 反正看起來特
Tesla先做到不需配置安全駕駛員吧
還沒止跌 你加油 繼續戰 881
意識形態就跟統獨一樣 講再多都沒用
請你去po出多傳感器的自駕行車影片
能贏過特斯拉的fsd
中國那一票已經全輸了
(城市+山路+非道路場域)三種地形
給你時間去yt找吧
找到我給你獎金100萬
沒找到就不要在這邊廢話
很吵xddd
所以你判斷依據是根據YT影片而不是IEEE的CVPR...
這個id我以後見一次就會問他一次「老黃的車」在哪 不
是說老黃的車都有了
那在哪 落地了嗎xddd
絕對被我問到3年內連一個實際的屁產品都沒有落地xddd
dd
感覺你根本不懂ML阿....
你們文組韭菜意識形態
跟你們講理論已經沒用
現在就是講實際落地的產品
如果多傳感器真的是王道
那一定會有廠商把它做成產品落地
直接舉那個產品出來
不過我告訴你 可能30年內你們都拿不出來
一群韭菜xdd
明明就一群外行魯蛇
通用和賓士2021就跟nvidia合作了
自駕到現在連個屁都沒看到xddd
通用還退出研發了
真的快笑死
你的老黃自駕車快拿出來已落地的產品
我還在等耶
你講話有點太嗆了 目前還沒落地不代表2026年不會出現
已經有很多家在用老黃的平台訓練了 但需要點時間
事實上你看NHTSA當初的裁決 Tesla自己幾乎承認沒LiDar
無法達標
Howard大說的也是沒錯
不過看業界訪問
老黃的顯卡模擬資料 只能拿來驗證
無法拿來訓練
要玩自駕 還是要有真實資料
玩自駕都還是會用NV的卡 包含Tesla沒錯
另外說一句E2E就沒有光達的位置
還會用到光達 就不是真E2E
Howerd大 還是用傳統範式理解自駕
FSD的技術是E2E 沒有融合問題也無法
為什麼LiDar就不算E2E? 是高經地圖才不算E2E吧?
光達是拿來感知的,很好的工具
感知後 還是要接決策,就是走傳統範式了
LiDar和攝影機的資訊從ML來看都是輸入資訊的接收器
亂講一通
沒阿 為什麼LiDar不能直接進ML?
你說的傳統範式是在模型本身沒把LiDar輸入考慮進去
然後用LiDar資訊當冗餘 但為什麼不能都用呢?
LiDar還可以透過軟體做慮波 這樣不是更完整嗎?
只能說目前技術沒到吧(?)
可以啊,但多傳感器融合要聽誰的?你認為的冗余不是真
是還沒學習夠 畢竟LiDar+純視覺訓練不過是這兩三年
正的冗余,目前就還沒人解決
實測表現也沒人追得上特斯拉
Howard大提的技術也許很快就可以work了
特斯拉就怕新範式出現,FSD就完了
現在特斯拉Work的E2E就沒有光達
TESLA只怕兩件事 1.出現新範式
2. Scaling law失效
講到這邊跑題了 笑
沒跑題吧,不然這邊的專家講了N年都是同一套
rober標題寫FSD內容測AP就站不住腳
AP還是傳統範式 FSD是E2E 完全不同
我都懶得討論rober,中國人2020用爛的手法2025還在用
ZXY大貼的東西 沒錯
而且rober真的要跟中國媒體學一下
這種影片太直白 被罵到Lumina都縮了
怎看到有低端說中國都是靠純視覺
這個低端不知道純視覺對演算法的技術要求是最高,
護城河是最高的嗎
既然如此中國廉價自駕哪有可能靠純視覺
不都靠光達作弊嗎
然後可笑的是靠光達作弊後
自駕能力還比人家純視覺低
攝像頭比人眼弱我還是第一次聽到
你家還是在用30年前的監視器嗎
現在隨便一個2000元的監視器都比人眼強,你黑暗中看不
到的,他都看得到
特斯拉8隻攝像頭,不叫做超感官?
什麼文組認知
你的眼睛有8顆?
攝像頭裡面的cmos還可以靠抓電子數去讀每個噪點的光子
顆粒數量
你的眼睛可以讀取到空間中有幾顆光子?
第一次聽到攝像頭不超感官的
文組真多
不 人眼確實在很多方面比攝影機強 光是轉動速度就是很
驚人的創造 雖然只有中心超高解析 但透過大腦可以達到
樓上蔚來、小鵬都有開發純視覺
蔚來還自己開發AI晶片
整天把低端掛嘴邊不如多看一點資訊
寬闊的視野 整個機構的旋轉甚至還配合了頸部肌肉以及內
耳
假如人眼那麼弱 就不會天天追求更高的解析度了
Fusion的對演算法的要求其實更高...
整體來說 我還是覺得純視覺是推進自動駕駛主力 但是否
只靠純視覺就能達成 我反而覺得有待討論
以前很多人認為RL不可能成功所以都只用RLHF 但就是被突
破了
近視100 200度的人都可以裸眼開車了啦 什麼人眼高解析
度
用fusion處理感知 那接下來就是決策模塊
決策模塊就是一大堆rule base的東西
你以為每個開車的眼睛都很健康1.0喔?
我家人黃斑部病變 視力只有0.2都能在白天開車了 少胡說
八道
真的別浪費時間嘗試教育失去理性的狂粉 沒有意義
純視覺 也是同樣的問題 要寫rule
他說話不體面 就去置底文幫他體面
更不用講fsd又不是讀圖像
特斯拉AP AEB 停車輔助 跟召喚都是傳統範式
而是讀光子顆粒數量
傳統範式就是要寫一堆rule
其實Fusion不同的傳感資訊進入真的要寫Rules嗎? 不能直
接訓練?
AP AEB EAP 召喚停車輔助都是純視覺
現在我們看不到遠處的招牌字
end to end就是不要rule的嘗試 其實一直都有人做
d401我討論的是人眼天生的機構 你拿黃光病變....
都要用手機相機去拍下來放大了
但特斯拉做了 讓很多粉絲第一次認識到這個 開始狂吹
來輔助人眼了
到底在胡說八道什麼
Howard大其實我貼的圖已經回答你的問題了
黃斑病變*
訓練出來的感知模塊資料 就是要走決策
一直插我話,是怕被我電爆嗎
問題就是決策模塊太多rule了
zyx我有看你貼的 但那是用Tesla既有的模型下去解讀?
那是你分別對兩種傳感器去training 但假如同時呢?
人類近視就能裸眼開車了
跟我說要開車的必要條件是高解析鏡頭
真的被你這文組打敗
看不到遠處招牌字,先用iphone相機拍下來再放大zoom in
就算你有再好的融合算法,還是繞不過決策模塊
,可以幫助自己看到極遠處的字
然後你跟我說人眼比鏡頭強
這點快被你這文組打敗
我以為追求更高解析度不就賣商品的行銷方式嗎
就跟音質一樣 很多人就是看不出來跟聽不出來
人眼比鏡頭強,我直接肉眼看就好,我幹嘛先用手機拍下
來,再放大來看
不是讀醫學的在那邊胡說八道
然後當然不會有人承認啦 這樣會顯得自己低能
真的快笑死
光達會讓解析度變高嗎
會以為人眼超越鏡頭本身就腦子要保養
融合算法就是指同時訓練了啊,目前看來單模型也是正解
理想也剛放棄所謂的雙系統,改成單ㄧ模型了
Rule-based 注定失敗就不討論了,看waymo十幾年的牛步
光達派就廢得可以 幾乎都不討論演算法
多傳感器+rule bas算是自駕濫觴,但也是一個詛咒
表示這群人基本上覺得演算法不是重點XDDD
覺得每台車都裝上光達後 全自駕就達到了 神經病
就好像你買得的到EUV 2奈米就自動生出來了
人眼比鏡頭強這種常識就不用教了
人眼除了解析度能贏過鏡頭 其他全輸
開車需要的並不是無限堆解析度 解析度達到基本門檻即
可
人眼如果硬要用解析度的概念 比4K影片還高
甚至8K的影片也達不到人眼的解析度
問題人眼缺乏高度遠視能力 高度近視能力 夜視能力
所以人在看遠處字體 看不清楚 才需要借助解析度比自己
差的手機鏡頭去拍攝讀取
夜晚看不到才需要借助鏡頭夜視功能
然後人眼的高解析度只有在1.0的視力 並且投影在黃斑部
的那個角度 才會達到8k影片也達不到的解析度
也就一個角度 現實狀況下 人眼根本無法跟鏡頭比
真正能讓人類開車的 根本不是視力 視力只要有基本門檻
主要是人類的大腦 對於場景的理解跟解析
攝影機的綜合能力本身就超越人眼了
在搭配優秀的演算法 開車要比人類安全10倍以上是基本
rule based 會有最基本的幽靈煞車 幾乎每家都解決不了
會以為人眼超越鏡頭本身就腦子要保養
還扯什麼頸部,你轉頭是可以看到側後的車身
講得光達可以無視天氣一樣
鏡頭不能開的光達一樣死,還多了誤判
把緻密的雨滴判斷成障礙物
你以為鏡頭靠自己晚上就看得到?
不靠NIR LED也是一片黑啦
其實我不太懂為什麼兩種感測器就一定要Rule Base
權重不就是Training的目的性嗎?y
只有他知道的世界吧
LiDAR是可以用SWIR波段的
SWIR雲霧的穿透力比可見光波段好
特斯拉在暴風雪全霧氣,全黑暗只開車燈的行車紀錄一堆
,腦子都沒在看?
在SWIR波段太陽光干擾也少
兩種感測器跑E2E跑出來的結果就是不如純鏡頭,這個特斯
拉用過毫米波雷達和鏡頭訓練過了,訓練出來的權重就是
不比純視覺。
但E2E是黑盒,無法解釋為什麼會不如,只能接受結果
這東西前面有人講了,你還不懂,在這邊搞笑
LiDar也可以透過軟體加大功率和抑制雜訊
有的時候我都會好奇 哪來這麼多帳號專門來吵架的
不如特斯拉舊車用雷達是幹嘛的,你以為是安裝好玩的?
lol
其實Elon從沒說過反對兩種感測器...
沒反對過 所以2020年以前的特斯拉二手車都有雷達啊
只是雷達和鏡頭一起訓練表現結果就不好
不尊重這個科學事實 一直盧不知道幹嘛
不 他只是認為LiDar不是他想要的解析等級
走純視覺就是因為事實是這樣 而不是特斯拉天生挺純視
覺
而是事實顯示非視覺感測+視覺 訓練出來的權重表現結果
就是比純鏡頭還差
而端到端是黑盒子 無法解釋為什麼多一個感測結果會不
不如純鏡頭
就像你也無法理解正傑為什麼要去捷運站砍人
你唯一能做的就是把正傑消滅掉
所以既然雷達和鏡頭一起訓練出來的ai 表現很差
有LiDar+Pure vision vs. Pure Vision論文嗎?
你也無法解釋為什麼 你能做的就是廢除這種混合體
改成純鏡頭訓練
現在連特斯拉都在藏了,只能用產品力評論
成果不好總是要有論文 或是模擬比較?
其實我貼的圖就是精華了,有空可以再聽這討論
特斯拉早在去年開始的ai day就不公開他們自駕思路了
v11版本之前還全部開源 進入v12就開始藏招了
視力有問題去治療不要在路上開車害人
v11版本的fsd 我那時候看就是不行 還不成熟
進入v12 自駕開始有質的飛躍 然後ai day也不講了
華為在我來看就是把特斯拉v11 做到極致
特斯拉顯然v11做到一半 轉技術路線 直接跳v12
如果華為智駕 vs 特斯拉v11 那華為會贏
因為特斯拉就半途放棄 直接轉技術路線了
v12以後 華為的v11就算寫的在極致 和v12看起來就是有
代差 完全不是一個世代的東西
更不用講v13又是v12的100倍強
真正會用在無人出租車的應該會是v14版本
這個版本會開始增加ai的長期記憶
長期記憶才是人類開車的安全冗餘
目前的自駕基本上缺乏這塊
人類在熟悉的道路 對汽車安全的掌握是不熟悉道路的10
倍以上
基本上v14以後就是要做到ai能把開過的路細節都記下
而ai因為有幾百萬輛車 所以開過的里程會遠高於單人類
推 lee 觀念正確
天眼通 xDD
看過一些中國FSD評測,同樣路線第一次走錯介入修正之後
第二次再走就走對了,可能真的有長期記憶的功能了
老黃做的是晶片跟訓練平台…
camera radar fusion的E2E也是不少人在做
去找CVPR 2025錄取論文 各式感測器、感知、決策都有
被某些活在平行世界的講成只有純視覺+E2E才是唯一解
錢大 現實是現在每個人都想做啊 但是成品拿不出來
每家都馬想做E2E 但市面上真的就沒看到~
Tesla下一版要包音訊 也不是純視覺了
阿他就是撞之前還狂踩油門,都被警告了...
還在成本考量 都2025年了 拜託 笑死
Waymo跑十年以後還是一樣的東西
又有人用fsd測試一面假牆確定沒撞了喔
23
首Po看起來在很多特定的情景,Tesla的純視覺方案,沒有辦法避免意外的發生。這樣是不是 離全自動駕駛距離更遠了呢? 影片在此X
據加州監管機構表示,電動汽車製造商Tesla已獲得加州首個必要批准,可能在該州開展無 人駕駛計程車服務。 這項批准是Tesla實現其此前承諾的自動駕駛計程車服務的重要一步。 無人駕駛計程車服務的承諾是該公司在快速發展的電動和自動駕駛汽車領域保持領先地位的 更廣泛努力的一部分。2
高功率LiDAR現在最大的問題是 佔用空間合理的固態雷射波長都要催到1300~1500nm去了 不然把iPhone在用的那些雷射功率拉上去根本在烘烤路人的眼球 安規不會過 現階段候選材料InP又貴到靠北8
雷射催到1500去 傷不傷眼睛? 可以看這篇測試 車載雷射傷不傷手機感光元件11
可以散會了 被國外網友踢爆造假了 這個人在特斯拉的AP運作期間 腳還踩著油門 有用過的都知道 AP期間踩著油門8
→ leefengynh: 黑人問號 03/19 13:46 → leefengynh: 我家攝影機全黑暗房間中看得一清二楚 03/19 13:46 → leefengynh: 人眼完全看不到 03/19 13:46 → leefengynh: 你說人眼比較強xddd? 03/19 13:47 → leefengynh: 然後你這文組硬體代工腦 03/19 13:471X
純視覺就像一個沒有感知能力的人沒辦法分辨在前面的東西是真的還是假的 這就是純視覺的侷限 加上Lidar後雖然距離人力的感知還是差很遠但至少可以補助一點不足 模擬出來的場景在現實世界中不太可能會出現在馬路上 但純視覺就是有一定的侷限在21
不意外 很快就有人重做一次實驗了 純視覺確實可以完美辨識 ===== 光達廠商這20年來的發展 除了靠買廣告 造假外
53
Re: [分享] 特斯拉國道直直插入貨車車廂內影片We Crash Four Cars Repeatedly to Test the Latest Automatic Braking Safety Systems 2018年11月的文章 測試車款:25
Re: [新聞] 特斯拉下個版本FSD接近完成最終不需雷達話說這是大概1個月前Musk的推特內容 新聞跟原PO也lag太久..... 推特短短幾行,報導還可以寫這麼多也是不容易 然後更有趣的一點 一邊說使用pure vision,一邊把不專注路況的FSD beta車主排除在外唷XD7
Re: [分享] 特斯拉FSD beta 來比眼力有沒有比AI好提到光達,沒有人會扯到雷射全像術吧 維基百科介紹 LiDAR 原理時附的動畫如下: Velodyne 出的,早期被用於電動車的 LiDAR ,Waymo 還在用的,結構如下:5
Re: [分享] 台灣之光 特斯拉沒這個問題話說這篇文的作者都說他是Tesla的超級粉絲了..... Ark Invest原文電子檔2
[討論] 中捷要是有整合FSD或Mobileye中捷要是有整合FSD或Mobileye是不是就不會發生慘劇了? FSD跟Mobileye的系統都有能力在捷運這種單調路況運作非常良好, 尤其是突然有掉落物馬上就會停車了, 不管是純視覺方案還是裝載Lidar跟毫米波雷達充分冗餘方案的自駕系統都能簡單克服障 礙路況,