Re: [情報] 情報數則
給太長直接End的:
沒人會用4090 train正經的模型
請愛用A100
-------------以下正文---------------
註:DL是Deep Learning
為了防止有人跟我吵說AI不只有深度學習blablabla
才特別寫明
不懂的話直接理解成AI就好
原文恕刪
先跟原PO道歉
我沒有要針對你
但我想原PO大概沒有認真搞過DL
有些觀念實在讓我不吐不快
雖然我也只是剛剛混了張紙的程度
但還是來丟個磚頭
有大神看到請小力鞭
BTW我也覺得米帝的制裁力道可以更大
但米帝絕不是像原PO說的傻跟笨
首先,正經做DL的肯定不是用4090
那種東西愛怎麼賣就怎麼賣
即使出了5090、6090
計算性能翻了兩倍三倍也沒關係
原因是絕大部分DL的瓶頸都在記憶體
主流的DL技術都包含了大量的矩陣運算
而矩陣運算的特色就是可以被高度的平行化
這也是為什麼沒人用CPU做DL
因為GPU或者ASIC隨便都是幾千個thread在做運算
記憶體的限制主要在兩個方面:容量跟頻寬
容量的話很簡單
爆掉就直接爆掉沒有第二句話
有摸過CUDA的話應該知道
叫GPU做任何事之前都要先把會用到的東西丟進GPU的記憶體
也就是說如果你會用到的東西超過VRAM大小
那恭喜你可以討預算升級設備了
當年我們菸酒生要開工的時候因為老闆太摳
又不想排隊等公用的伺服器
所以都自己買一張卡
那時都在討論要買3060還是3070
同學的結論是3060因為有12G VRAM
而肥宅我因為貪圖3070提升遊戲FPS的副作用所以還是買了3070
結果就是train彩色圖片的時候就被OOM鐵拳狠狠教訓
土豪同學的3080倒是沒問題
總之核心不夠力只是慢了點不過還是能算完
但VRAM爆了就是爆了
所以正經的DL是不會有人拿4090的
至少也是V100 32G
好一點的拿A100 40G
更好的拿A100 80G
現在最強的應該是H100吧
80G起跳最大188G
你說能有多少資料
實際情況會依設定跟訓練資料不同
單純討論模型本身就好
給個大概的概念:
一個16bit float是2byte
VGG16的參數有138 Million(不包含bias或其他optimizer的參數)
那模型本身就要至少276MB
用32bit float就是552MB
而GPT3的參數是175 Billion
16bit存模型本身就超過300GB
32bit就是600GB
至於GPU怎麼塞300GB等等再討論
這還只是模型本身喔
實際訓練時要的資料
運算時需要的記憶體等等都還沒討論
有哪些可以看圖
https://imgur.com/g63dyUe
(Source: https://reurl.cc/Q4rQQp )
另一個瓶頸是頻寬
話不多說先上圖
https://imgur.com/XmrL54v
(Source: https://reurl.cc/7RGxaN )
前面說過
叫GPU做任何事之前都要先把會用到的東西丟進GPU的記憶體
而灰色部分是程式在等待資料搬進記憶體佔總執行時間的百分比
可以看到mm那根棒棒超過90%
mm就是DL一直在做的矩陣乘法
這個搬進搬出的速度取決於頻寬
給個參考標準:
PCIE 5.0 SSD:約12GB/s
DDR4:約70GB/s
DDR5:約100GB/s
RTX3090:936.2GB/s
RTX4090:1008GB/s
V100S:1134GB/s
A100 40GB:約1500GB/s
A100 80GB:約2000GB/s
H100 188GB:7800GB/s
可以想像頻寬的影響有多大
再來談剛剛說了現在一個模型動輒幾百GB
整個train起來可能要幾TB
啊地表最強GPU也才188GB是要怎麼塞
答案是把GPU串起來
老黃的叫做NVLink
消費級最後支援NVLink的是3090
40系列全部不支援
蘇媽的...反正有跟沒有差不多
NVLink可以讓串在一起的GPU共用他們的記憶體
串8張A100 80GB就有640GB
可以說做DL生意的沒有不用NVLink的
當然這種共用的存取絕對比存取自己的記憶體慢很多
基本上現代DL發展的瓶頸就在這裡
給個參考數字:
V100:300GB/s
A100:600GB/s
H100 80GB:900GB/s
最後說說米帝幹了啥:
限制Nvidia把NVLink的速度降到400GB/s
就這樣
所以老黃把A100的NVLink閹了一刀改名A800
然後加價賣
為什麼我說米帝不蠢
你看他只砍一刀就砍在瓶頸
把瓶頸縮得更小
在幾乎沒損及美商利益的前提下造成最大的傷害
用過CUDA就知道那個生態系有多重要
基本上就是GPGPU的windows
你要是全禁了說不定他們自己煉蠱還真的煉出了個什麼來
但在有CUDA用的前提下
相信我
沒有人會想幹自己的
幹出來也沒人用
大概是這樣
下面談談我對原PO論點的看法
極權政府確實可以不論效率去幹一件事
但請別忘記資源是有限的
就AI這塊
不精確地說
DL本質上就是在一片無垠的解空間中隨便找個點開始往好的方向走
直到你走到你滿意的位置
或是走不下去從頭再來
當然高手可能每次都走得比你遠
而且可能幾次就找到他滿意的位置了
啊我們這種廢物就只能多走幾百次這樣
但基本上都有丟骰子的成分在
硬體效能的意義在於每丟一次要多久
而骰子在滾的期間無論你是高手還是廢物都是在等
只是廢物如我就直接去玩Switch
高手可能去學校教書或啃paper
於此同時你的對手可能已經滾完了在丟下一次
確實多買幾顆骰子可以解決問題
但請記得
中國在這方面的對手不只是任何一個政府
還有IBM、Google、微軟、Meta、Amazon等等科技巨頭
更不用說洛馬雷神波音這些牛鬼蛇神 <--- 軍武點(X
這些企業投入的資源可不會比中國政府少
更重要的是效率絕對比政府帶頭投入高出幾個數量級
還有
骰子是那個米帝的特級廚師一家獨大
他隨時可以把你的骰子再削一刀
--
推 解釋得很清楚
推
看不懂但推
所以可以說 在法條裡寫上這條規則肯定是業內狠角色
推
Sirctal : 沒看前後文我還以為我在電蝦板05/09 22:22
[菜單] 習包子大撒B AI深度學習機謝謝
就跟之前工控機禁運令特意加上數據傳輸限幾十mb一樣
又不是不能用,但用起來很痛苦 推
sas1942 : 看不懂但推+105/09 22:25
歐歐 歐 清楚的科普
簡單明了,推
我還以為是電蝦版 XD
推業內解說
推
看到4090還以為走錯版XD
我自己沒做DL 但身邊有做相關的 講難聽點就是沒錢才
去買消費級顯卡 不然都會買專用卡 不是財大氣粗 而
是真的速度有差
不只是速度問題,超過VRAM限制連跑都跑不起來 不說了我碩班那種一覺起來發現OOM根本沒跑完的PTSD快發作了
專業推
我以為我走錯板
感謝分享,卡頻寬就好,別人一天可以訓練完的量,阿共
推 真的時間就是金錢 而且真的差很多
有些公司就直接找AMA或是TWCC之類的服務商租算力了
省事又不用折舊
後面那一段同樣道理適用於任何產業 沒辦法去市場競
爭 只服務於黨跟國家是很難有進步的 砸再多錢都一樣
要好幾天時間才能訓練完,時間就是金錢,科技就是為了
省時間
我也以為我在電蝦版
電蝦也不會用到CUDA 吧,適用這些設備的也要配套
看不懂還是要推
來這就是買新的 (x
看不懂 但還是推
我重複出去又進來幾次確認我在軍事版xd
玩線上遊戲沒顯卡,就算記憶體再多一樣也是卡卡卡
(?
不過有顯卡是否比較吃電啊?
這篇才真正解釋到目前機器學習及巨量資料會卡的瓶
頸。不要以為運算快就好,最麻煩的是資料遞送速度
跟指令集排程最佳化能力。一個考驗運算單位的設計
,一個考驗資料輸送時的過程。還有更機車的:把上
述兩個要件串在一起最佳化。
其實資料遞送是很多應用的瓶頸,比如遊戲 看蘇媽的遊戲U暴力塞cache就知道
他不會來,只會裝死吧
推
我以為到電蝦
推專業
人家可以在高速公路上飆車,中國只能在省道開快一
點的概念
多一個硬體鐵定會更吃電啊,只是吃多吃少而已
人家美國的高速公路就算限速100,但還有設計高流量
專用道優最佳化,你中國的省道只有三條線,就算限
速拉到100也沒用。
嗯,你是對的。你說的對。
現在的遊戲用顯示卡都有切換高低負載的模式,避免你
我以為瓶頸會在FP64那邊,然後是有限元素分析的障礙
然後美國高速公路是5(ordinary)+1(HOV)線
只看個PTT就耗能爆炸
讓我想到以前寫個ML作業 用CPU跑就要一天。那時候最
好的lib是openCV因為可以用顯卡加速...
なるほどわからん
只能說時代差了幾年 就差了很多
科技始終來自於人性
講直白點,如果砸錢能大力出奇蹟,阿共不知道出幾
個台積電了
我記得以前學生物科技時有教授教用Medline資料庫去
推專業
軍事上現在都用AI加雲端運算啦,有了星鏈,你可以即
時用超級電腦計算所有戰術方案及敵我辨識
看不懂 但是推專業
跑序列比對,那個時候才幾Kb的序列就要花一兩天
但是星鍊資料搬運速度有限呀…
而HPC的好壞就要看拓撲學,整個主機設計的好,你時
效性就贏人好幾步
雲端運算最大問題還是資料搬運速度及運算元被軟體
切割。
實際上應用的時候耗費的資源比訓練的時候少,網路
帶寬影響搞不好比延遲小
現在雲端技術最成功的是資料備份吧?
AI推理不需要非常大頻寬,星鏈夠用了
雲端技術最成功的是叫Container"容器"
我走錯板了…
雲端備份只是一小部分,微軟,亞馬遜,谷歌提供的
雲端計算業務都還在快速成長。
確認好幾次自己是不是在電蝦XD
推科普
容器化讓很多服務可以在同一台主機輕量又快速的部
署 (跟虛擬機比起來)
我也差點以為我在電蝦板
美國現在領先在矽光子交換器,未來會用在10Exascale
等級的超級電腦,中國是完全追不上,而IBM的量子混
合運算HPC也在實作中
所以那位米帝的特級廚師把mellanox給買下來了
推專業
感謝。我終於看懂了DL的意思
這篇可以存起來。
抱歉紅明顯。每個領域都是這樣啊,一直說美帝蠢又
壞的,一直蠢的是你自己,覺得壞是因為你不是站在
美帝同一個陣營
我看了什麼東西但還是推了
想說在回誰,99不意外
推
以為去錯版
專業
可是以前是有實驗室用T-Rex做DL訓練還發了paper
如果是成本考量應該也不是不能用4090,畢竟A800很貴
學術研究的話當然可以 也有很多研究是專注在如何不耗用太多訓練資源的前提下去訓練模型 但畢竟LLM的爆發告訴我們大力是真的可以出奇蹟的 所以不論商場還是戰場都還是在打算力的軍備競賽 這是我所謂的正經
推
DL是啥?
理解成AI就好
※ 編輯: FXW11314 (125.229.223.90 臺灣), 05/10/2023 00:12:32應該是Deep Learning吧
現在序列比對到NCBI就可以免費使用,還可以比對整個
幾乎收錄全物種序列的資料庫,科技的進步很驚人的
最近很多人被媒體洗一洗就已為自己很懂AI
但說真的 那些大多數都只是炒股用語 看多了就知道
看軍武長知識
只是某些人炒股炒一炒 又想要用股價割一波韭菜
騙一些自以為懂的進去當韭菜而已...
就很多人以為AI很簡單
AI的實際應用根本沒有這麼實際 大多數都還只是跑了
半天 跑出一個根本不知道幹嘛的結果
跟我的論文一樣欸啊哈哈哈哈嗚嗚嗚嗚...
※ 編輯: FXW11314 (125.229.223.90 臺灣), 05/10/2023 00:19:34推 認真科普文
美國永遠吸引世界最頂尖的人才和企業,中國???
?
推專業
未看先推
學術研究經費就那樣,院級研究單位也是有拿遊戲卡來
跑的
我可能有點離題..但這就像中國宣稱突破EDA軟體一樣
要寫軟體本身都可以寫 但沒有工廠數據配合設計模型
那東西根本不能用 美國研發幾十年的東西中國三年
就突破?
對岸戰狼思維只能賺快錢這種東西他們玩不來
VRAM不夠 Batch也不能開大 真的會OOM鐵拳吃好吃滿
推說明
雖然我都忘記什麼時候把你列入黑單 但是你是懂行的
看了兩遍 確認我在軍武版
看到情報數則有大事 開心地點近來被騙
稍微再認真看這篇就算Tech_Job板當科普文都不會打槍
感謝分享
其實說正經完全精確,我自己做輕量化object detect
ion的也發了兩篇ieee前段會議的一作,我用兩張1080
ti跟一張3090而已
*不完全精確
非資訊類的工科社會人,內容簡單明瞭容易理解給推
推說明
只能給推了 舉例說明很清楚易懂 讓我擔心了一下會
不會出現胡歌老公之類的
推,離題最近實驗室想搞vGPU但消費級驅動沒支援,
非得要去買 A 系列,專業級真的是被 NV 吃死死QQ
很好的科普
粉紅的教育程度只覺得錢=科技,自己不行那就用偷的
,用山寨的,連整個國家都是這個樣子在山寨軍武,更
遑論底下的人民,所謂上行下效正是如此
巷子內的
看起來中國的量子電腦也是吹的?
他有來推文啦 只是酸言酸語 難怪常常有人戰他
近十年前aws出世的時候亞洲沒什麼人在談,沒想到這
兩年瞬間爆紅,人人在講雲,大數據,ai
推!!長知識了,謝謝!
看軍武漲姿勢....
推
有料的文
解釋得超清晰的
推
這讓我想到以前在產線的AOI爛得要死
最後把ram加到500G才不會死當機
馬的當初就是被實驗室腦殘助力騙 說兩張1080疊在一
起跑效能好:)
我進來,嗯? 退出看板名,嗯??? 再進來,嗯!!!
大型語言模型是不是用大量的歷史資料來預測未來?
那也不能說是預測,而是透過大量資料學習如何做出正
確或適當的回應吧
推專業分享
推分享、收藏。
推 想到前幾天yt推給我這影片
說真的,我實在不想承認現在的AI是AI,我認為只有
到DL等級。甚至很多應用只是ML+big data。
推 簡單明瞭
推一個 簡單明瞭
推
推
科技板的好文在這個板上出現.這是好還是不好呢.
38
烏軍參謀總部正式宣布收復 盧甘斯克州的Karmazynivka,Myasozharivka,Nevske 頓內茨克州的Novosadove97
不明地點與時間的烏軍車隊受挫於俄軍砲擊,至少損失兩輛裝甲運兵車,包含芬蘭送的 XA-185首(被)殺,以及部分人員34
我這不就來了嗎? ***** 烏軍迄今已收復赫州逾90個民居點25
喬治亞軍團剪輯的烏軍步戰協同進攻(影片) 可以看到一些有趣的亮點 烏軍指出德國軍援的IRIS-T防空飛彈對於保衛基輔很有成果50
白俄軍人持續展現他們訓練有素的體能戰技 義大利軍援不明數量的M109L給烏克蘭25
英國的歐洲事務大臣表示,相信未來有機會提供西方坦克給烏克蘭 俄國今天又發射40枚飛彈和16架自殺無人機83
一位烏克蘭小女孩因俄軍飛彈襲擊而躲在桌下不出來,直到她爸爸拿恐龍玩偶給她才釋懷 (4/10拍的) 一位俄女要籌集資金買熱顯像儀給俄軍,因為她覺得可以讓他們保暖XD1
關於為什麼德國外交部、國防部為什麼會要求提高軍援預算,是因為 德國目前是紅綠燈跨黨派聯盟執政,各部會首長是不同黨掌管。 明年度編列的援烏預算是7億歐元,外交部長(綠黨)與國防部長(SPD)要求 財政部長(FDP)提高至22億歐元,大概是690億新台幣。 因為是內閣制,這些部長也都是國會議員。54
烏克蘭第10山地突擊旅清除一些躲在戰壕的俄軍 俄軍正在把民宅裡的洗衣機搬走26
五角大廈證實美軍已經援助烏克蘭冬季服裝,包含 50,000件連帽風衣 4,700件長褲 39,000頂毛帽
51
[情報] RTX3090配備24B GDDR6X和RTX3080配備10GBNVIDIA的GeForce RTX 30系列顯示卡 (包括採用新的Ampere架構的GeForce RTX 3090和GeForce RTX 3080) 將於下週發布,這些卡的記憶體規格已由Videocardz確認 關於NVIDIA GeForce RTX 30系列記憶體規格的傳聞很多。據Videocardz稱該訊息直接來 自AIB32
[情報] NVIDIA正在準備頂級GeForce RTX3090顯卡根據網路上的消息是NVIDIA正在準備一款RTX 3090顯示卡。該洩漏來自Igor(通過 Videocardz) 根據Igor的說法NVIDIA目前正在計劃其RTX 3000系列的至少有三個版本 有RTX 3080,RTX 3080(Ti / Super)和RTX 3090(Ti / Super) 所有這三種版本都採用PG132 PCB,並且都將採用GA102晶片。所有三個GPU都將配備26
[情報] 技嘉 RTX 4090顯示卡擁有隱藏的NVLink連超頻者Der8auer的一個有趣發現。他測試並隨後拆解採用RTX 4090系列的AORUS Master GPU。 事實證明RTX 4090(AD102 GPU)可能支援NVLink連接器。因為GIGABYTE的PCB設計清楚地顯示了連接器並隱藏起來,但它從未變成真正的NVLink。眾所周知NVIDIA放棄了為其旗艦遊戲GPU添加多GPU連接器的想法,而且目前似乎沒有一款RTX 40顯示卡可以使用。 如圖所示GIGABYTE團隊顯然在為NVLink設計他們的卡,這適用於AORUS Master或Gaming OC版本。從TechPowerUp RTX 4090拍攝了的PCB照片,並將它們合二為一 這表明GIGABYTE是唯一一家 將NVLink納入其卡的公司。16
[情報] NV 揭秘:Ampere開發了4年,已達7nm極限NVIDIA的Ampere GPU發布就要1個月了,目前問世的主要是針對數據中心市場的A100核心 540億個電晶體管、826mm2核心面積的它絕對是怪獸級GPU NVIDIA表示Ampere GPU開發花了他們4年時間,這麼大的核心已經達到了台積電7nm極限了 NVIDIA官方網站上今天發了一篇文章,GPU工程部門的主管Jonah Alben談到了Ampere GPU 的很多內幕消息。11
[情報] NV CMP 170HX加密挖礦卡曝光蒜粒164MH/s大多數 CMP(CryptoMining 處理器)卡都是採用合作夥伴的設計 但CMP 170HX是一個例外。知乎@Codefordl分享了該設計的新照片。 有些讀者可能還記得,Videocardz首先報導了170HX,這是一種據稱採用GA100的CMP產品 尚未與Turing/Gaming Ampere礦卡一起發布。170HX才剛剛開始曝光。 CMP 170HX是經過重新設計的NVIDIA A100加速器,它沒有顯示連接器,也沒有遊戲功能8
[情報] 戴爾新款NVLink GPU伺服器登場 搭配AMD戴爾新款NVLink GPU伺服器登場,搭配最新AMD處理器 適逢AMD發表第三代EPYC處理器,Dell EMC發表新款4U尺寸的GPU伺服器,當中採用4個SXM 4形式的Nvidia A100 GPU 文/李宗翰 2021-04-01 伺服器處理器大廠AMD在3月15日發表第三代EPYC 7003系列,許多伺服器廠商紛紛宣布既7
[情報] 白皮書曝光NVIDIA Hopper大晶片關鍵規格NVIDIA下一代H100加速卡提供支援的GH100晶片,紙面規格已經讓人感到十分驚訝 不過週末曝光的白皮書又讓我們對其有了更深入的了解 據悉NVIDIA正在積極利用台積電的N4(4nm EUV)先進製程 來打造Hopper GPU,而H100大晶片更是被六個HBM3高頻寬顯示記憶體堆棧給環繞著。 TechPowerUp指出GH100計算晶片擁有800億個龐大的電晶體管數量7
[情報] GTC 2022 : NVIDIA Grace CPU 再揭更多消息NVIDIA 在先前宣布首款基於 Arm Neoverse 架構的自主研發超算等級 CPU 產品 Grace ,此次 GTC 大會也公布 Grace CPU 即將在 2023 年第一季推出 的消息,同時還公布屆時 Grace CPU 的兩種小晶片架構延伸產品 Grace CPU Superchip 與 Grace Hopper Superchip 。5
[情報] NV更新A100,高達80GB的記憶體跟蘇媽約好了,一起發布新加速卡XD~ 雙倍HBM2e達到80GB,頻寬超過2TB/s,還有NVlink也跟著升級 將裝在新版DGX伺服器上 美西時間下午三點Supercomputing 2020會有更近一步介紹4
[情報] Ampere 架構的NVIDIA A100晶片4.0 AIC版NVIDIA在5月中旬推出了A100晶片,這是第一款採用Ampere架構的GPU加速器 此處使用的GA100-GPU擁有826mm2 和540億個電晶體管。 到目前為止,A100加速器僅以SXM4模組的形式提供。NVIDIA今天宣布它希望透過用A100 PCIe卡的形式出售GA100 GPU 在PCI Express卡上以相同的配置使用相同的GA100 GPU。我們現在正在談論的是6,912個