PTT評價

Re: [情報] 特斯拉第四季營收遠低於預期 盤後大跌逾6%

看板Stock標題Re: [情報] 特斯拉第四季營收遠低於預期 盤後大跌逾6%作者
LDPC
(Channel Coding)
時間推噓18 推:20 噓:2 →:49

不太一樣啊 首先自駕的車子吃電池先天上就決定算力有個上限在
而自駕容錯率又低 落地場景難度相對高 現在生成式AI算力無限往上疊
在雲端上跑沒有電池綁手綁腳限制 而且可以搞出一堆花樣來 才不是啥鬼泡沫玩意QQ
有小道傳言說 祖柏克現在搞AI是覺這玩意可以幫助他的原宇宙
因為他覺得他元宇宙NPC都可以叫AI來當 Meta最近很狂 都喊出AGI口號了

微軟哪天叫暴雪裡面的NPC都用AI跑都不意外
像是這篇AI NPC用在電玩 https://arxiv.org/abs/2309.09971 且這篇paper還是微軟的其他專案也有https://github.com/AkshitIreddy/Interactive-LLM-Powered-NPCs

老黃這次CES裡面其實也展現幾個AI NPC 對話是隨機產生 以後就是跟NPC談戀愛的時代了

--
福利連是我的 不要跟我搶!!QQ


※ 引述《chopinmozart (aha)》之銘言:
: ※ 引述《gso1987 (gso9)》之銘言:
: : $TSLA目前盤前-7%…
: : 其實財報聽下來沒有什麼新的壞消息
: : 要拿eps, revenue 雙miss 這種早就知道的事情來說已經晚了
: : 畢竟也沒人真的看eps買特斯拉股票
: : 財報後大跌也在意料之中
: : 華爾街期待的全年交付量預期和毛利率改善都沒給
: : $25k compact car要等到2025下半年
: : 只說了growth rate will be notably lower than 2023
: : 真是廢到笑
: : 不論如何賣不動就砍價是確定的
: : 特斯拉對於季度財報和機構投資人的態度
: : 就蠻不情願的…
: : 我認為2024比較能期待的大概只剩
: : Cybertruck + updated Model 3
: : 還有Model Y改款有希望在下半年推出
: : 至於FSD V12:
: : 目前測試影片看起來還可以
: : 需要推送給更多車主幫忙公測
: : 今年會是特斯拉股東痛苦的一年
: : 尤其看AI股賺到流湯
: : 老黃蘇媽創新高
: : 老馬還在半山腰
: : 真的是沒有比較沒有傷害
: : 最近又出現很多特斯拉冬天充不了電
: : 續航劇減的新聞
: : 不過和18、19年的FUD比起來真的還好
: : 那時候特斯拉是在破產邊緣
: : 和現在滿手現金不是同一個量級
: : 持股方面我是covered call已經上滿了
: : 希望明年會更好…QQ
: 是這樣的
: 今日特斯拉 明日微軟
: 現在的微軟就跟兩年前的特斯拉一樣
: 靠著AI自駕車吹上天
: 從2020實現 L5 自駕吹到 2024 年
: 大家都快忘了有L5自駕車
: 而微軟現在正在走這條路
: 生成式 AI 在 2023年吹上天
: 應該2025就下去了
: 生成式 AI 說穿了就跟特斯拉的自駕車一樣
: 叫他寫文章很簡單 叫他造火箭就很抖
: copilot 就跟特斯拉的 L5 一樣吹過頭
: 特斯拉頂多就自動跟車大家敢用 現在要完全自動駕駛根本難如登天
: copilot也是頂多寫寫簡單的東西或一些周邊測試
: 很難成為主要生產工具
: 大家很快就會發現生成式AI只是寫寫文章的玩具
: 真的要變成毀滅人類的天網可能是2100年以後的事情
: 特斯拉只是第一個被看破手腳的

--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 67.169.111.72 (美國)
PTT 網址
※ 編輯: LDPC (67.169.111.72 美國), 01/26/2024 15:47:33 ※ 編輯: LDPC (67.169.111.72 美國), 01/26/2024 15:49:02

waitrop 01/26 15:48meta在ai領域的確很狂,有Yann LeCun帶隊十年

waitrop 01/26 15:49但是meta在ar/vr的問題還是沒有改變,硬體與技術

waitrop 01/26 15:50還是無法解決暈眩與長時間使用的問題,目前比ai還難

CORYCHAN 01/26 15:56請問大大怎麼看AMD這波

strlen 01/26 15:57一半天空偏不選要選千年老阿罵 有夠瓦

CORYCHAN 01/26 15:5799 AMD

bring777 01/26 16:01AI沒網路就是個廢物

jinshun 01/26 16:01很狂嗎 社群一堆詐騙貼文原來都狂AI弄出來的

JKCCF 01/26 16:01想了解 NV另外兩個領域,車用跟Omniverse的潛力XD

a000000000 01/26 16:15福利蓮開宇宙戰艦

loat 01/26 16:17老阿罵了欸 至少選肥倫吧

rebel 01/26 16:18訓練跟推論是不同的 你是不是誤解了AI 的應用模式

LDPC 01/26 16:24以Megatron-Turing-530B 它在推論要用到40顆A100

abccbaandy 01/26 16:24AI肥倫應該超嘴吧

LDPC 01/26 16:26一顆A100大概是250W 如果你用ASIC這種省電 缺點就是

LDPC 01/26 16:28不好隨插即用

waitrop 01/26 16:30AI server 沒在跟妳隨插即用啦! 插上去用到整台壞掉

waitrop 01/26 16:31從DC抓出機器然後換一張GPU還要搞半天的成本更高

waitrop 01/26 16:31大部分如果可以就用軟體跳過這顆GPU,如果可以

bnn 01/26 16:32怎麼看meta都是下一個炸掉的財爆

LDPC 01/26 16:32我在說電動車不太可能跑大模型啦 他先天有算力限制

SRNOB 01/26 16:33祖柏克瘋了喔? 憑他那個巴黎鐵塔自拍元宇宙?

https://www.youtube.com/watch?v=guE7zZYUEyM

QQ AI福利連不香嗎

https://www.youtube.com/watch?v=7LASttrRkVo

一起來推AGI福利連吧 QQ

LDPC 01/26 16:33且隨插即用指的是模型參數架構update asic不能這樣

waitrop 01/26 16:36asic的確受到特定算法與模型架構限制

leoloveivy 01/26 16:36西元2024年還在頭暈quest3賣爆了

waitrop 01/26 16:36每種訂製的asic都有特定使用的算法與模型架構

※ 編輯: LDPC (67.169.111.72 美國), 01/26/2024 17:00:37

pantani 01/26 17:22你說的不錯 只是要多久才實現

Jeff1989 01/26 17:23希望能跌倒165慢慢接

pantani 01/26 17:40http://i.imgur.com/Gov7Wnf.jpg

pantani 01/26 17:42股市就是把幾十年後的夢吹來反應在當前的股價

SAKUHIRO 01/26 17:53本來以為臉書要下去了沒想到默默又靠AI復活,感覺

SAKUHIRO 01/26 17:53明明也沒什麼產品,營收也沒有吧

webster1112 01/26 18:49沒有夢想,人跟鹹魚有什麼差別?

caeserhaha 01/26 19:19不需要在車子上面去訓練模型吧,會放到車子上的應該

caeserhaha 01/26 19:19都是已經fine tune 過的了

gino0717 01/26 20:18跌到100進場

hcwang1126 01/26 20:48但 現在主機不勘負荷 想分散一些事到邊緣運算 車可

hcwang1126 01/26 20:49能不錯

hcwang1126 01/26 21:09特手機 特車 dojo 可能可以在這特架構下作什麼特化

hcwang1126 01/26 21:09過的應用 然而我們可能也在經歷二次.com 泡沫 但泡

hcwang1126 01/26 21:09沫後精彩可期 類莫語靜從不男不女的人工ai進化 並增

hcwang1126 01/26 21:10

imhan705 01/27 04:15幾個月前中國有手遊有ai npc惹

hidalgo2297601/27 12:21車子有什麼應用需要大型模型的...你能說說看嗎

現在一堆視覺Foundation Model大模型都屌打傳統CV 但能幫助自駕的偵測 且LLM也能幫助自駕的路徑規劃 你可以看看這篇整理的LLM自駕論文總集合

https://arxiv.org/abs/2311.01043

我們現實世界需要一堆0-shot recognition 來應付在訓練數據沒看過的場景和物體 傳統CV模型無法做到泛化(0-shot) 所以場景一改變 很多算法就失效 這也是為何 大模型被認為是一個通往AGI路線 原因就是泛化(Zero-Shot)能力 而模型越大 泛化能力越強 越能做到Zero-Shot 很多Foundation Model都有良好泛化能力 然後LLM的泛化能力也可以用來解決自駕上的路徑規劃甚至理解世界 再從沒看過場景 情況事件 泛化強的大模型都能接近人類去給決策和判斷物體為何 就算是有三寶駕車 有者上帝視角的泛化模型自駕都有機會可以閃過三寶的撞擊

https://arxiv.org/abs/2312.09245

但這些大模型在Inference也是會比傳統CV更吃 記憶體和算力 這也意味者你的電動車行使里程會被因此影響到 換言之如果你要一個LV5自駕 你要的是一個全面泛化性強的模型 這也是為何大部分自駕會選在高速公路場景 因為可以相對減少泛化性的要求 當自動駕駛處理市區或一般道路時 那就是一個災難的開始 我有一個認識的在Zoox 他們曾經遇到一個情況是 有人睡在大馬路上 在一個沒泛化性的自駕(訓練資料沒看過) 車子有大機率會直接輾過去 而目前能達到良好的泛化做法就是大模型的Foundation Model/Pre-Train Model 這也是OpenAI其中一篇論文講的 泛化的達成跟你Scaling Law有關 所謂的Scaling Law 就是你模型尺寸要大 才能顯出Emergent Ability 不過我感覺你一定不知道我在說什麼 總之 歡迎加入跟我一起推福利連QQ

※ 編輯: LDPC (67.169.111.72 美國), 01/27/2024 15:40:52

hidalgo2297601/29 13:10沒注意到你有回文

hidalgo2297601/29 13:12你寫了很多字 但可以被吐槽的實在太多....

hidalgo2297601/29 13:12第一 路線規劃 跟 傳統cv 本來就是完全不同的任務

hidalgo2297601/29 13:13自動駕駛一定要在local端做 路線規劃幹嘛要在local?

hidalgo2297601/29 13:14你有看到Google的路線規劃需要到local端做的理由嗎?

hidalgo2297601/29 13:14本來就是不同的東西 稍微用點大腦就能知道了.......

hidalgo2297601/29 13:15又不是跟車子有關聯就一定要放到local端.....

hidalgo2297601/29 13:16LLM能做路線規劃 也100%一定是在雲端 不會有人想拿

hidalgo2297601/29 13:16石頭砸自己的腳

hidalgo2297601/29 13:16為了煮一頓飯造一間餐廳...

hidalgo2297601/29 13:17你說的foundation model 請問多大???

hidalgo2297601/29 13:17第二 你說的foundation model 請問多大???第二

hidalgo2297601/29 13:18LLM能做到那麼大 是源於語言的特殊性

hidalgo2297601/29 13:19不是什麼東西都加大就能好棒棒

hidalgo2297601/29 13:23Transformer確實有用到圖片處理 主要用在序列圖像處

hidalgo2297601/29 13:23這是4-5年前就有的東西

hidalgo2297601/29 13:24但是圖像處理本來就跟語言處理是完全不同的task

hidalgo2297601/29 13:24所以這方面的研究一直有,但一直做不好

hidalgo2297601/29 13:25語言本身有其特殊性 所以才能做到大模型

hidalgo2297601/29 13:27然後才有你接下來說的一系列的好處

hidalgo2297601/29 13:27不是所有都東西都能無腦加大模型都一定能work

hidalgo2297601/29 13:28這是machine learning的基本常識

hidalgo2297601/29 13:30所以回過頭來 還是一樣問題 請問你說的oundation

hidalgo2297601/29 13:31model 有多大?

hidalgo2297601/29 13:31我猜你根本不在意這種事情

hidalgo2297601/29 13:32如果能做到LLM那麼大 這算是很巨大的前進

hidalgo2297601/29 13:39你如果有學過基本的LLM原理 你就不會這麼有信心地打