Re: [請益] AI最花錢的時間已經過了嗎?
短期目標就是AGI,長期目標就是ASI,其他任何形式的東西都只是花邊,所謂的AGI就是你直接可以用GPU算力去轉換你的所有非物理員工,原則上你只需要僱用機房仔排除故障而已,這當然一開始超級花錢,但隨著時間成本會急劇下降,且超越你所能找到的員工能力
DeepSeek 只是一次成本優化的良好範例,並沒有創造出新的範式,一個優化引擎可以讓你的車省下95%的油,不代表你可以不用油開車
Scaling Law才是真正的重要的核心,目前的Scaling Law是短期經濟帳撞牆,DeepSeek 的研究表明經濟帳撞牆有短期突破,但要知道的,基礎模型ModelSize擴大100倍,才大約有2倍智力回報,推理模型會在相同模型大小上有100倍效益,相當於2倍基礎模型放大會有2倍智力回報
至於說MOE對於未來擴展是不是最優範式還不確定,如果不能簡單Scale Up這個基礎架構,那未來擴展還是會受限
但到了AGI時期就不一樣了,你可以每次針對不同Scale的Model做一定程度的自動化優化,包含最底層的PTX重寫,到最上層的算法優化,這時局我敢說大企業絕對會往下押注,這與一般使用者無關,但一定會受惠
目前絕對還遠遠不到Edge Device的局面,DeepSeek R1完整版要16張H100才擺得下所有參數,蒸餾完的東西都屬玩具而已,而且遠端才能透過Time Sharing極大化GPU usage rate,你Local端的利用率5%都不到,相同價格你雲端的能力會至少是2倍以上,更何況未來GPU會越來越便宜
股價短期一定還是會下殺,晶片關稅一定會殺到底,但未來長遠絕對是利多,估計要到OpenAI 跟其他AI Lab開始拿AGI做自己的雲端ASIC,但短時間很難跟Nvidia正面翻臉,畢竟NV跟台積電的交情,談到的晶片產量不可能直接搶單的,亞洲人情世故還是會把這件事情緩一緩
※ 引述 《ImHoluCan (爺)》 之銘言:
: 標題: Re: [請益] AI最花錢的時間已經過了嗎?
: 時間: Mon Feb 3 13:59:46 2025
:
: ※ 引述《gerychen》之銘言
: : 就算Deepseek是蒸餾其他AI模型
: : 但就是能夠做出效能好成本低的模型
: : 而那幾間巨頭砸在AI的錢
: : 就是在奠下AI發展的基礎
: : 以Deepseek的發展來說
: : 未來是不是任何公司都只需要用相對低的預算
: : 就能再做出一個新的AI模型?
: : 也就是說AI浪潮最花錢的時間已經過了?
: : 那未來還會有像前幾年那樣的晶片或算力需求嗎?
:
:
:
: 客群不ㄧ樣,你怎麼把客群混在ㄧ起說?
:
: DeepSeek 客群是免費仔 與 本來不會用AI 的那群人
:
: 巨頭的AI 花的巨額費用 是給專業 本來就會花的人
:
:
:
: 1.Apple iPhone 幹嘛買新的?
:
: 拿iPhone 8也不需要,
:
: 滑滑網站 拍拍照 看看影片都差不多
:
: 甚至用便宜對岸中階安卓cp 值爆打
:
: 幹嘛用ios 呢?
:
: Apple 應該倒閉才對,鬼才買新iPhone,主流要cp 用中階安卓就好
:
:
:
: 2.奈飛 幹嘛訂閱?是白痴嘛?
:
: 網路隨變打線上看,各種網站,各種盜版
:
: 爽看到爆cp 爆力高 成本0元
:
: 怎麼還有弱智花錢訂閱奈飛?
:
: 奈飛怎麼不倒閉?
:
:
: 3.特斯拉幹嘛買?
:
: 中國電車爆打,甚至幹嘛買新車,買二手爽用就好
:
: 特斯拉應該馬上立刻倒閉才對
:
:
:
: 特斯拉 蘋果 奈飛
:
: 都有遇到增緩減速 甚至有很多對手更屌
:
: 但目前不都都頭腦壯壯?
:
:
: 蘋果 特斯拉 增速放緩+關稅
:
: 也都遇過,怎麼還不倒閉?
:
:
:
: 花錢肯定有好處
:
: 而不花錢用免費的 肯定有壞處 就看你用在什麼地方
:
:
:
:
: Nvidia 永遠重點是AI 到底有沒有賺頭?
:
: 才是讓巨頭要不要大量投資硬體
:
: deepseek 就直白的表示AI真的有賺頭
:
: 連本來就不用AI的免費仔都在用
:
:
:
: 笑巨頭幹嘛花大錢投資硬體
:
: 如同看盜版0元的人笑那些花幾百元的人低能
:
:
: ----
: Sent from BePTT on my iPhone 16
:
: --
: ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 112.105.61.157 (臺灣)
: ※ 文章網址: https://www.ptt.cc/Stock/E.KyHOCiYDcDTk
: 推 Shiang1225 : 確實 02/03 14:00: 推 SKzzz : 精闢 02/03 14:01: 推 Aska0520 : 克群真的不同 02/03 14:01: 推 kuosos520 : 小聲一點,還沒買夠 02/03 14:01: 噓 centaurjr : iphone 8拍照差很多...你可以試試看再回來唬爛 02/03 14:02: 推 realmd : 但是投資方會更務實 以前溢價都收的盤子買法不在有 02/03 14:02: 推 wanybear2002: 同意,太多免費仔習慣成自然了 02/03 14:02: → realmd : nv的毛利可以預期一定會掉 02/03 14:03: 推 jwiww : 樓下說可以繞過CUDA護城河 02/03 14:06
--
DeepSeek 完全打開新世界大門
要是增加硬體能更聰明,那肯定有賺頭
感覺這篇很有見地,雖然看不懂但只能推了
LLM到不了AGI的
板上恐慌仔只會喊nv 50 tsm100
運算成本減少只會讓更多應用投入
好吧 吃起來有點吃力
我覺得應該說只有LLM達不到AGI
訓練歸訓練。要供幾億人用的推論花的才多
短線客盤中決鬥只是過程。
法人機構也是要買賣才有收入。
只要人類經濟活動繼續,硬體天花板永遠會被打破,
我是不可能回去用十幾年前的電腦跟手機還有汽車、
家電等應用,如果誰說可以那代表他從此時此刻就不
需要再升級所有硬體的產品。
聽君一席話 如聽一席話
LLM由於學習底層機制所以他永遠到不了AGI,這是學
術界共識了,所以思考鏈也只是噱頭而已,不會真的
有人以為LLM有神經自主思考能力吧?
人腦參數量70B功耗60W記憶體4GB,好好想想吧!呵呵
!
拿人腦比?要確欸,機器最大的毛病就是要用10句甚
至100句話解釋人類用1句話就能懂的東西
當然是人腦比呀!死抱那種虛無飄渺算力增加無上限的
理論是被Altman洗腦的傻子嗎?連微軟都不買單了,AI
要用實際面來看去做發展而不是什麼Scaling Law一直
往上加,我還以為是參加老鼠會呢!笑死!
實際上AI模型發展的基礎目的是達到類似於人類水準就
可以應用了,AI的優點是可以大量複製、記憶體一定超
過4GB,熱插拔隨時上線轉換成需要的專家,這樣就足
夠裝載到AI機器人裡面了,該不會有人以為要AGI才能
自動駕駛吧?
那我們平常開車通勤的人類是智障嗎?
agi 搞不好跟之前90年代一樣,等得比預期久
deep seek會紅就是因為看到了我講的方向的曙光,要
不然繼續給Altman投錢虧死你,他還整天作弊玩花招,
Altman就是個生意人,當初看到ChatGPT之父Ilya提出S
caling Law理論就拿來整天掛在嘴邊,肖想跟摩爾定律
一樣可以用來洗腦人,那個微軟就是第一代憨憨,現在
人家下車了,有人繼續接棒,可憐哪!軟銀,呵呵!
美國是要搞AGI沒錯,但是沒人說AGI一定會遵循Scalin
g Law,蒸餾就是這個現象的部分答案,因為你以為參
數量400B以上很好,但是裡面有很多垃圾知識。
模型為了回答問題每次轉那個400B參數根本是浪費資源
,呵呵!
scaling law 快沒訓練資料了
無限參數 + 無限訓練資料 是有可能AGI啦
現在都想用合成數據去搞,但AI又不是人類,缺乏對現
實世界的理解,很多合成數據都亂七八糟,要不然就是
AI偷懶說謊隨便交差,笑死!
看起來蠻沒未來的,燒錢燒到破產吧
其實能不能本地運用目前是卡在老黃,老黃那個極惡商
業刀法限制了地端運用。
scaling law已經平了
離散的資料不能表現連續的真實世界
AGI短期目標 猛
這篇正解!
人情世故 呵呵
爆
Re: [請益] 費半成份股全線崩盤 怎麼辦?既然有人提推論,我就講看看訓練端 DSv3 論文中最大亮點,可能也是目前看起來崩盤的主要是 $5.77 million 的訓練成本 和他對比的是喇叭哥曾經說 GPT4 花了超過 $100 million 訓練 未公開的 GPT5 據 WSJ 說,每一次六個月訓練週期需要花超過 $500 million 簡單用 GPT-4 : DSv3 = o1 : DSR1 估計 o1,但應該更多啦,不過低估在這邊不重要![Re: [請益] 費半成份股全線崩盤 怎麼辦? Re: [請益] 費半成份股全線崩盤 怎麼辦?](https://i.imgur.com/ZrjivY5b.jpeg)
爆
[情報] AMD 興奮宣布 Instinct MI300X GPUs 支援 DeepSeek-V3標題: AMD Instinct GPUs Power DeepSeek-V3: Revolutionizing AI Development with SGLang 來源: AMD's X (Twitter) 網址:![[情報] AMD 興奮宣布 Instinct MI300X GPUs 支援 DeepSeek-V3 [情報] AMD 興奮宣布 Instinct MI300X GPUs 支援 DeepSeek-V3](https://i.imgur.com/xVyT4dsb.png)
79
Re: R: [請益] 為什麼中國越來越強?怎抹這邊突然變AI版 =_= DeepSeek 有件事情幹得比矽谷好 就是AI Backend 優化(這玩意就是需要懂架構 和軟體 就是一個苦力枯燥活) 大體而言 在A100架構以前 大部分訓練都還是用fp32 少數模型對精度不敏感會用到fp16 (浮點16進位)主因是用16進位去訓練 精度不夠 容易模型崩潰 尤其用P100的fp1667
Re: [新聞] DeepSeek R1來了,追平o1!它現在不但比OpenAI開放,也應該不用那麼久 重點是DS是開源的 現在應該有許多數據中心已經開始實驗DS的演算法 我們先假設DS的創新 是往AGI道路上的王道![Re: [新聞] DeepSeek R1來了,追平o1!它現在不但比OpenAI開放,也 Re: [新聞] DeepSeek R1來了,追平o1!它現在不但比OpenAI開放,也](https://i.imgur.com/OBFxyQJb.png)
47
[討論] Deepseek就之前吹過頭了呀 XD來看看DEEPSEEK之前怎麼吹的 「DeepSeek R1的問世,宣告AI訓練與推理成本大幅縮減,在不到600萬美元的極低投入成本 和2048塊性能遠低於H100與Blackwell的H800芯片條件下,DeepSeek團隊打造出性能堪比Ope nAI o1的開源AI模型,相比之下Anthropic與OpenAI訓練成本高達10億美元。該模型每百萬 個token的查詢成本僅爲0.14美元,而OpenAI的成本爲7.50美元,成本降幅高達驚人的98%。![[討論] Deepseek就之前吹過頭了呀 XD [討論] Deepseek就之前吹過頭了呀 XD](https://i.imgur.com/94BvQMzb.jpg)
50
Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據OpenAPI 的 Chief Research Officer (首席研究員) Mark Chen 2025/01/29 凌晨發了一波推文評價 Deepseek R1 的論文 恭喜 DeepSeek 產出了一個 o1 級別的推理模型!他們的研究論文顯示,他們獨立發現了![Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據 Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據](https://i.imgur.com/A73X07xb.png)
7
[請益] DeepSeek 會不會反加大中美 AI 差距最近中國的 AI 團隊 DeepSeek 宣布了一個大突破,透過 DualPipe、FP8 低精度計算、 通訊優化 這些技術,讓 AI 訓練的效率大幅提升,意思就是說 用比較少的 GPU 就能達 到原本需要超大量 GPU 才能完成的 AI 訓練。 表面上看起來這對中國 AI 產業是個好消息,因為 美國對中國禁售高端 GPU,中國 AI 企業的算力一直是硬傷。所以很多人說deepseek是中國彎道超車,讓中國即使不用美國高5
[問卦] deepseek 說輝達是現代石油公司?以下是我題問的問題 1.目前都說,因為演算法的進步,未來不需要英偉達那麼多gpu算力那麼多是真的嗎? Deepseek 回答如下: 從技術發展的多元角度來看,**演算法進步確實會提升計算效率,但短期內對GPU算力的 需?3
Re: [問卦] deepseek 說輝達是現代石油公司?剛剛我又引導對輝達不利方式去說 以下我問的問題: 3.會因為演算法的進步,導至不需要那麼多算力(Nvidia GPU) ,讓微軟與meta 或其它公司去砍Nvidia 的訂單嗎? Deepseek 回答如下:X
Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據你發這種文章 大陸人就知道這裡是井蛙版了 : 別別這種蒸鰡效果是基於原有資料的基礎上加工 : 如果原本的資料無法回答的問題 : 蒸鰡出來的結果也不可能![Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據 Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據](https://i.imgur.com/Hq1Xx9mb.jpeg)
![[請益] AI最花錢的時間已經過了嗎? [請益] AI最花錢的時間已經過了嗎?](https://i.imgur.com/SJ4QAmCb.jpeg)
![Re: [請益] AI最花錢的時間已經過了嗎? Re: [請益] AI最花錢的時間已經過了嗎?](https://i.imgur.com/8qP9e1nb.jpeg)