[請益] AI伺服器成本分析——記憶體是最大的輸家
剛看到半導體產業分析機構semianalysis的這篇新文章:
https://www.semianalysis.com/p/ai-server-cost-analysis-memory-is
雖然沒付費只能看到部分
bing摘要:
這篇文章的核心內容是分析人工智能伺服器的成本。文章指出,隨著數據中心建設的瘋狂,市場也隨之瘋狂。但是,有許多公司並不應該因此而受益。文章還提到,IT預算有限,因此Nvidia銷售額的增長主要來自於購買較少的非GPU伺服器。文章中還提供了一個標準CPU伺服器的成本分解,顯示內存佔伺服器成本的近40%。文章最後指出,在人工智能時代,普通伺服器的百分比將會下降,並且在數據中心轉向加速計算時,各組件的成本分配也會發生重大變化。
分析cpu server和ai server的成分價格 概念不錯
https://i.imgur.com/mHf654R.png
就說憶體幾乎是伺服器成本的40%
問號?
--
AI伺服器會走AWS那種營運模式啦,真以為每家公司自
己架設自己要的AI伺服器喔?頭殼壞才這樣搞,就連Op
enAI 微軟都砸多少錢花了幾年
尬死空軍總部
這篇文章的成本計算好奇妙,
大老黃買越多(Gpu)省越多(cpu) 應該是真的server總
數量可能下降 Ai server佔比大提升…
這樣GG是受益者還是受害者啊?
把原本記憶體的費用轉向高速運算了
SmartNIC成本是過去的16倍 那間台廠不就賺爆
所以爽到韓國hbm記憶體
memory這麼貴是用CXL嗎... 這誰算的啊
爽到海力士
99旺宏
最近確實這種論述蠻多的
但這個論述的邏輯是有漏洞的
基本上建立在AI伺服器和一般伺服器是替代品
但其實並不是
若一般伺服器能做到AI伺服器能做的事
那不會有人願意買AI伺服器
2023的預算已經訂了 短期確實會這樣搞
但2024後 其實應該是整體資本支出往上噴
AI伺服器的資本支出是額外往上加的
而非用於取代一般伺服器
拿AI伺服器來做一般伺服器能做的事
也很不合邏輯
老黃今天不是有說嗎 cpu伺服器又貴又耗能 你可以買
低階的gpu 一顆gpu就抵n顆cpu 這樣還是比較省阿
cpu跟gpu適合的任務是不同的
如果gpu能完美取代cpu 那nv早年不會那麼慘
很多東西不能只看算力和能耗
狙擊槍跟散彈槍不能拿來比較
你講的是"伺服器" 你如果是要做其他用途 譬如儲存
你就買NAS阿 cpu當然不可能消失 只是在算力上面
今天新的 gh200 直接存取記憶體用很兇
低電壓記憶體
特點是今天有賣高級switch
而且全部走光纖
gpu是更好的選擇 沒有人說不能買籃球鞋跑步
Spectrum-X 4奈米
64port 800G光纖速度
你搞錯意思了 一般伺服器也不會配備gpu
兩顆cpu就能解決的事 何必多配gpu?
特別是你加gpu 要拿來幹嘛?
就沒適合的任務給他算啊
順邊做網通
H100還是要用到SPR,i皇還是有得賺
絕大部分的應用 根本不需要那麼高的算力
反而是cpu更適合多功處理 取代個毛
DGX GH200 , 144TB 直接存取記憶體 !!!
已經沒人會叫兩顆cpu的機器伺服器了 那個是個人電腦
1 ExaFLOPS
一台大概2000多顆 記憶體顆粒 三家買 大概6000多個
而且老實講啦 nv就最沒資格講低功耗 低成本
就算不用ai chip
消費級的gpu 也快跟server cpu差不多貴了 省個毛
你要抬槓就去抬槓吧 XD 誰不知道cpu的指令集更泛用
其實還是個人電腦市場 的記憶體用量比較大
如果沒人care你說的這種應用要怎麼配置了 講難聽一
點就是很多x86能做的事情arm也能做 那你買手機還會
去想要怎麼配嗎 買PC還會去文書機怎麼組嗎
目前絕大部分的伺服器 仍是配備2顆
記憶體是輸家??未來CXL3.0普及就更需要大量記憶體,
加上記憶體內運算是未來趨勢
記憶體 又是你 你最爛
如果只是講Flash,那的確是輸家
買越多越省錢
恩 單一個GH200的小型server 576G的記憶體
有1000多家合作廠商 人人買一台小型的 也不少
the more u buy the more u save指的是AI算力
而且老黃今天說 算力還在往上衝
要用傳統的server 跟他的cuda tensor cores
已經被甩到看不到車尾燈了
10年前就1台抵10台了
我不覺得flash會是輸家~別忘了flash成本下降也是很
感謝分享
快的 有個說法再5年 SSD就會取代傳統的HDD
模型目前越來越大 記憶體需求增加 training 你限制
只能用Nv 但目前還是有很多inference 用Cpu70%?,
chatgpt 給你用的就只是inference 如果一堆infer
ence都有Gpu或asic加速 確實server需求可能會降
伺服器要建置成本超高
我怎沒看到20T的SSD
目前 llm inference 也是用 ai server
只是不用配到H100 但主流應仍配備A100
看起來 三星記憶體又要大賺 晶圓代工滿血復活。
你問這之前要不要先google....2年前就在賣100T了
老黃除了拉抬gg一把 還救了三星和美光阿!!
目前伺服器類股都噴出
semianalysis的東西看看就好 不過也沒啥人認真研究
然後一樓那葛論點=糞 smci這一年多噴多少
4說原po尼到底有沒看他整篇 他下面94加ai卡的成本
inference用cpu是牙膏的論點
牙膏說九成的ai行為是inference 然後inference
基本上他就不是消費性電子產品
60%在cpu上面
詳細數據可能有些錯 不過牙膏那論點跟大便依樣
感謝教主開示
因為簡單的ai像照相抓人臉那種 手雞cpu就做掉惹
跟牙膏也無關
美光真的感恩 上週快摸到75 香噴噴
接下來的時代重點是生成型ai會普及 運算需求爆炸
從server到手機 半導體需求也會大爆炸
dram廠也會受惠
謝教主哥提點 偶是被那空一欄不計誤導了
我快要知道金富力士等11個人如何可以製作貪婪之島
有在跑運算的 記憶體不會省
只能說 記憶體不是gating 也不會爆發多少
$1T用小錢買麻花卷 再多也做一樣的事 就too much
一級玩家的綠洲看起來似乎也是由劇中哈勒戴一人製作
定錨昨天就有說 用GPU做AI伺服器只是初步階段
未來還是會回歸CPU
未來AI運算還有MRAM記憶體內運算 三星已做出原型
所有扯到inference HW, 都要多吃RAM
不管是 notebook, 手機, 甚至 藍芽audio, GPS ..
這種小到不行的MCU要跑AI都要加RAM
所以美國黃董會跟台灣惶懂合作嗎?
我預估記憶體內運算至少還要等三年
AI列車早就開了,誰還跟你等記憶體內運算,而且SoC
的command要不要變都還是個問題,PIM也會造成capac
ity下降
IO BW足夠支撐算力,其實PIM不見得是市場趨勢
記憶體內運算...你要確定model改了你還算得出來
很久前gpu吃浮點尾數的小問題不知改正沒有 舊cpu版
程式除非遇到嚴重效能瓶頸 修改的成本還是高 gpu推
了十多年才終於冒出頭
記憶體內運算記得也做好一陣子了 跟gpu/cpu二回事吧
那是省寫硬碟的時間
不過dram需求一定會跟著AI發展水漲船高
記憶體會是成本輸家?這邏輯我無法參透
記憶體高階技術成本降不下來嗎?學一下晶片
記憶體內運算是啥意思?運算永遠在處理器裏吧...還是
說馮紐曼的架構大改了?頂多就把整顆硬碟塞進Ram...
就開機的時候特別久...不過記憶體分層發展至今應該
差不了那點IO了吧...
記憶體一直是效能的gating啊...不足就等著慢...不過
超過的確是不會爆發什麼...就是不卡系統運算天限...
樓上PIM參考一下
GDDR6-AiM -- SK hynix 在 ISSCC 2022 發表的論文(&
展示晶片),人類在半導體技術的進步將帶領電腦突破
von Neumann bottleneck
tinyurl.com/5n6unnby
人工智慧
為啥是輸家? 因為%下降?
AI伺服器哪有可能回到CPU為主...
雲端AI越來越強 手機有必要升級嗎? 不是都丟到雲嗎
邊緣運算,因為資安因素,終端設備也要有一定算力
邊緣運算市場一定會有,資安問題是一點。再來就是b
usiness問題,edge端的產品可以玩的公司比較多
什麼都要訂閱一下以為人人受得了嗎
圖應該是一般server吧 一般的泛指沒裝GPU
今天記憶體狂噴 ??
ptt骨神超多
98
[實況] 矮子娃娃實況主遊戲ID:矮子娃娃 伺服器Server: TW 實況頻道連結: 實況內容簡介: 我如果是愛錢的話 哪會關台花100多個小時去拿可能還拿不到的25萬87
[情報] 產生式 AI 大爆發 NVIDIA GPU 恐供不應求生成式 AI 大爆發,NVIDIA GPU 恐供不應求 來源 微軟 Bing 搜尋引擎整合 ChatGPT,加上其他生成式 AI 工具的需求攀升 都相當依賴人工智慧處理能力,正是 NVIDIA GPU 優勢所在 當科技公司利用 NVIDIA GPU 滿足增長的 AI 需求24
[請益] Server主機板適合玩遊戲嗎?手機排版,請見諒 想問各位大大們伺服器的主機板適合玩遊戲嗎? 會問這個原因是因為朋友在產業關係會接觸到許 多伺服器的產品,其中光是CPU的價格可能就 是i7甚至i9 CPU的20~30倍以上,其中也看過7
Re: [新聞] 英特爾伺服器晶片推遲發布 股價NVDA請問教主大大 您分析 AMD, INTEL的地位與能力在板上無人能出左右了 請問教主如何看 這兩家的一大競爭對手 NVDA (AMD ,Intel, Nvidia 之爭,相當精采)9
[請益] 量化分析伺服器選擇最近開始進入量化分析的領域 不過程式需要每天手動執行 連上網去抓當日資料 但每天開機執行很麻煩 於是想選個雲端伺服器來排程跑1
Re: [請益] Server主機板適合玩遊戲嗎?先說結論:不適合 : 會問這個原因是因為朋友在產業關係會接觸到許 : 多伺服器的產品,其中光是CPU的價格可能就 : 是i7甚至i9 CPU的20~30倍以上,其中也看過 : 實況主用洋垃圾多開的方式來玩遊戲,那如果伺
爆
[心得] 指數仔 第4年分享56
[標的] DJT 特朗普媒體科技43
[請益] 為何一堆人都想著債市要做價差?45
Re: [標的] 大盤空 農曆十月空75
[請益] 債真的沒人在停損的嗎?39
[創作] 煎熬(美債)8
[情報] 3293 鈊象113年YTD EPS23
[請益] 大盤仔心得+多300W運用22
[情報] 台塑九劍113年10月營收21
[情報] 2636台驊控股 公告董事長異動20
[情報] 6869 雲豹能源113年YTD EPS34
[情報] 7723 築間 通過113年第三季合併財務報告16
[請益] 零股當天賣出 當天買9
[請益] 外資有繳稅嗎?17
[情報] 2636台驊投控 授權董事長於半年內處分帳上航運類財務投資,18
[情報] 8086宏捷科 Q3 EPS 0.4215
[情報] 2376 技嘉 十月營收15
[情報] 3450聯鈞 113年10月營收2
Re: [標的] 2609 陽明 繼續大獲全勝送錢多12
[情報] 2890永豐金10月自結0.13 累計1.5912
[情報] 2368金像電Q3 3.28 3044健鼎Q3 4.4212
[情報] 113年11月07日信用交易統計7
[情報] 2886兆豐金10月自結0.12 累計2.117
[標的] 2330.TW 台積電 每位GGer發iphone15多24
[情報] 美國10月重型卡車銷售量(年化)大幅下滑4
Re: [標的] 00687B 國泰20年美債 質押開三層多18
[情報] 2812 台中銀 10月自結 0.11 累計 1.266
[情報] 6523 達爾膚 H1.5 7.45 Q3配息 57
[情報] 1107 上市櫃外資投信買超金額排行7
[情報] 3017 奇鋐 10月營收