Re: [新聞] 輝達A100、H100獨家供應商!法人調高緯創
前陣子自家公司GPU也不夠用了...在測試一堆想法時候 決定自掏腰包去租外面GPU
找了幾間像是 https://lambdalabs.com/ 結果...wtf 也是大爆滿
看了幾個AI論壇 一堆自行開發者都自己測試各種pretrained model的下游fine-tune
也是各種哀嚎搶GPU 以前這幫個人開發者在自己的RTX 就可以簡單測試 但現在的
LLaMA也好 Diffusion也好 越來越難在家用遊戲顯卡上跑
尤其這陣子流行Foundation Model 每個小測試GPU都要xN (N>16) 這種方式去train
對比幾年前一兩個GPU就能搞出點東西的時代過去了 現在就是萬物暴力解
CLIP這種東西甚至資料都高達數個TB 以後二線公司沒足夠GPU就是別想玩大模型設計
Pretrain/Foundation Model 全部只能做下游adapter 然後第三方或個人開發者
就可以拿這些fine-tune model 去設計自己需求 各種AI落地方案開始遍佈
然後這種大模型就是造就GPU極度缺乏!!!! 最近找遍各種第三方GPU租用計算之後
以及在內部公司 隨便丟個大模型測試 都要在自家公司上server排隊個三四天才能跑
第三方租用 我已經等了一個禮拜 根本排不到 甚至看了一下討論串 感覺一堆矽谷各公司都在屯GPU https://shorturl.at/ouwMS https://udn.com/news/story/6811/7199315
上週的感覺真讓我想起2020 我那時候為了買個家俱 要等上半年以上..於是默默地
就繼續加碼三大股的其中兩個
如果蘇媽MI-300真的好用話 會一定分流 不過現階段H-100的優勢就是有Transformer
加速優勢(據說三倍加速以上) 而MI-300沒這優勢 尤其現在AI架構都是萬物Transformer這波就是Transformer/Foundation Model+硬體暴力解 搭配Fine-Tune搞起AI流
(有興趣可以看FeiFei Li 那幫人對Foundation Model的預測和見解
https://arxiv.org/abs/2108.07258) 順帶一提Qualcomm這波完全選擇AI光譜的另一端
他們選走on-device路線 就是大模型對立面 大模型和on-device可以說是AI極大和極小
概念 看起來華爾街這幫人對on-device題材 完全不感興趣
老黃當年第一個提出GPU概念 從2000~2010 跟ATI每六個月增加硬體效能
互相硬體效能瘋狂對決 軍備競賽 帶動3D遊戲市場 感覺歷史又再一次循環...
https://www.youtube.com/watch?v=BlI9PVQA8ZA
然後以後人類的用途就是去當電池了QQ 這波AI繼續搞下去 以後一定缺電
--
99AMD/99TSLA/99NVDA!
※ 引述《xephon (′・ω・`)》之銘言:
: 原文標題:輝達 A100、H100 獨家供應商!法人調高緯創目標價到 115 元
: 原文連結:https://technews.tw/2023/07/04/h100-gpu/
: 發布時間:2023 年 07 月 04 日 10:01
: 記者署名:姚 惠茹
: 原文內容:
: 緯創為輝達 A100、H100 GPU(圖形處理器)的主要獨家供應商,而且今年第四季後 AMD: MI300 的出貨量將攀升,預估 2023 年和 2024 年的 AI 營收將成長到 220 億元、420: 億元,因此法人將緯創目標價從 55 元上調到 115 元,主要獲利趨勢持續向上,並維持: 「增加持股」的評等。
: 緯創 6 月營收 811 億元,月增 28%,年減 20%;稅前獲利 34.5 億元,淨利 17.3 億元: ,每股稅後盈餘(EPS)0.62 元,獲利優於預期;今年第二季營收 2,065.5 億元,季減: 2.6%,年減 15%,稅前淨利率 4.3% 創歷史新高。
: 法人表示,緯創受到產品組合改善,以及 GPU 基板和子公司緯穎營收擴增將推升 2024: 年的每股稅後盈餘,並根據同時期輝達(NVIDIA)GPU 出貨量 113 萬顆、203 萬顆,以: 及 AMD MI300 與 Google TPU 出貨量,預估 2023 年和 2024 年 AI 伺服器出貨量將成: 長至 17.4 萬台、31.4 萬台。
: 法人指出,緯創為 A100、H100 GPU 的主要獨家供應商,而且第四季後 AMD MI300 出貨: 量攀升,預估 2023 年和 2024 年 AI 營收將成長至 220 億元、420 億元,雖然 AI
: GPU 基板的營收貢獻僅 2~4%,但是預期該毛利率較高,分別貢獻 2023~2025 年營業利: 益 16%、23%、25~30%。
: 法人分析,緯創企業伺服器營收回升,來自思科(Cisco)、戴爾(Dell)、Supermicro: (美超微)及緯穎營收擴增,預估伺服器營收貢獻將自 2023 年的 37%,提升至 2024 年: 的 43% 與 2025 年的 48%,而同期間伺服器獲利貢獻則從 56%、58% 到超過 60%。
: 法人強調,看好緯創未來數年的獲利成長動能,並將清理虧損業務減少 2023 年獲利不確: 定性,正面看待緯創 2024~2025 年的獲利,可望受惠伺服器營收攀升及獲利負向因子有: 限,因此將緯創目標價自 55 元調高到 115 元,並維持「增加持股」的評等。
: 心得/評論:
: 這種股票是反應 2024-2025 的營收
: 根本還沒到,所以現在多爛都不會跌
: 奉勸空空不要想不開
: 緯創能空的時機,要等 NVDA 跌下神壇
: AI 神話完結,到時候跌回 30 元都可能
: 但只要 AI 股預期未來 2~3 年的營收,這炒法不結束
: 就永遠不會跌
--
推編碼哥
推編碼哥
改用浸沒式水冷可以大幅節電,阿里巴巴的資料中心很
早之前就用浸沒水冷了
AI大氾濫時代 一堆參差不齊的公司寫一些垃圾AI來浪
費電的
推
讚
這波不會一直下去 1. LORA等新技術壓縮
2.資料品質遠重於數量: Textbook is all you need
3.Autoregressive LLM有其極限在.很快大家就發現
怎麼fine tune 都修東壞西..
差不多一年就會緩和了 除非有新的架構出現
新概念永遠是brute force的,接下來肯定會出現個神
經病提出一個很優美的算法然後直接被寫進課本供著
跟挖礦消耗顯卡差多了吧
ABF的需求好像也是喊到2030?
尼今天發電幾瓦
教主來惹
嗯...這個有點AI泡沫的味兒惹 這群中咖小咖瘋搶GPU
但最後一個一個就像煙火一樣爆完就 啪 沒惹 然後又
爽到老黃
AI就算力較強的晶片,這本來在晶片技術演進上就早
晚的事,只是把他灌個AI附加價值就高出一般晶片好
幾倍,根本是提早吃未來老本
下次在遇到經濟不景氣,不就要改推出super 級AI來
拯救
推 業內
當電池或當人造人
遲早的事 一堆人不相信
推
輝達明明就是跟美超微合作的,不知道緯創在漲什麼
幹,要變電池惹,工程師有優待嗎QQ
謝謝分享~
我電池我驕傲~
母豬教主報到
輝達跟超微合作這是老黃要跟蘇媽一起發大財嗎?
樓樓上是說Supermicro超微才不是AMD的超微
AI論壇不是在流行跑在APPLE的晶片上了,便宜又大碗
散熱又好
看到deepelves的推文,今天早上心情都好了~
推你 推極客灣
人肉電池
某些超肥大的LLM適合跑在m2ultra,但仍不是主流,因
為nvlink可以把A100用到640G
老黃的好東西有些只給企業級用戶
個人玩家自己也training不出什麼有用的大殺器
除了訓練大模型必備的H100/A100 這波也會帶動 RTX40
系列在個人電腦上跑 stable diffusion 之類的應用
根據之前某創業家的描述,模型還真的是愈大 效果愈
愈好 尤其CUDA發展超過10年 MI很難在短時間追上
歐印AMD,NVDA,SMCI
87
[情報] 產生式 AI 大爆發 NVIDIA GPU 恐供不應求生成式 AI 大爆發,NVIDIA GPU 恐供不應求 來源 微軟 Bing 搜尋引擎整合 ChatGPT,加上其他生成式 AI 工具的需求攀升 都相當依賴人工智慧處理能力,正是 NVIDIA GPU 優勢所在 當科技公司利用 NVIDIA GPU 滿足增長的 AI 需求47
[閒聊] M2Ultra在AI比intel+nVIDIA有架構優勢?先說我不懂AI運算 只是看了林亦的新影片 不想點的,說個大概 意思是41
[情報] 蘇媽讓Model S跟PS5的遊戲效能一樣強10TF我們都知道線在蘇媽很缺貨 顯卡也是 首先要滿足家機市場 現在有個好消息跟壞消息24
Re: [新聞] AI晶片競爭開跑,谷歌公布第四代TPU,宣周末下班閒聊, 發現tech版沒有這篇文章, 那就在這裡討論好了, 其實我說的東西都是網路 google+wiki 就有的東西, 先簡單說明一下現代化的ML DeepLearning的基本概念,12
Re: [情報] 情報數則其實也不知道怎麼說明,再不講得太深入又能夠很簡白地說 真的蠻難的,我就大概點到一些點,然後開頭直接下個結論吧 美國想阻止的是中國透過AI完成強人工智慧,或是通用型的AI 有點類似現在目前的ChapGPT進化的最終版 但如果要阻止中國完成區域性或是弱人工智慧已經不可能了9
[情報] 3DMark 推出 Intel XeSS測試工具雖然字面是寫Intel,但實際上AMD和NV的顯卡也能測試 如果3DMark是在2019年1/8前透過Steam購買的需要額外購買 Port Royal 套件才能測試, 在這之後買的都能免費取得6
[情報] i皇6代以上內顯開CUDA加速 最高buff 52%本來想轉xf的 但我真的看不懂他真的在寫三小(抑或是說源頭cnbeta真的不知道寫什麼) 英文原文: 原作者Github:- AI 建模,流程可以參考這個網址 一般會有資料蒐集, 清洗, 演算法, 最後的 interference (推論) 第三個步驟到第四個步驟有個 model ,這步驟叫建模, 這個建模的過程會耗費極大量的 GPU 運算能量,還有無數次迭代