Re: [標的] NVDA 長期無腦多
不知道為捨抹會講到邊緣運算啦QQ 不過老黃這波佈局就是替兩三年後落地場景客製化晶片
一般落地場景Inference(AI推理)的工程順序如下
拿一個PreTrain萬用大模型 用特殊資料FineTune 然後Deploy (Inference)
以LLaMA 7B模型為例 假設我今天要做一個醫療問診小幫手的AI 當我用一堆醫療資料
FineTune這個LLaMA 65B模型後達到我需求 (到此為此都會在Cuda生態圈做)
接下來就是所謂的Deploy (AI推理) 就是把模型每個unit的參數讀出
然後根據你晶片特性去寫c code 比方說模型架構有一堆Transformer 那就是把每層
Transformer係數讀出 接者如果特製晶片有特殊Transformer API function 那你就是直接call 當然你也可以自己用c 寫矩陣運算土工刻出Transformer但通常這樣很沒效率
當然也有一些直接轉c code工具 像是onnx 此款搭配pytorch 非常好用 但你也會遇到
萬一底層晶片沒有支援特殊library 比方說你有一個ReLu6層 但晶片只支援Relu
那你就自己要手改或做些換算
而用特制化晶片好就處 就是省電 速度快效率高 缺點就是不能再改架構 但模型一但做好只要能大量跑商業化 通常大前提是改動也不會是在這樣頻繁
大模型是比較難推廣到edge端 主要是openAI提出一個定律叫做scaling law 意思就是
同樣模型架構設計 當你模型無限增加size時 他在突破某模型參數量會突然有類似AGI功能能學會數據上的泛化 而低於這個模型參數臨界值 模型無法學會數據泛化 每個模型設計的臨界值都不一樣 在追求驚人的AI效果 堆架構狂增加模型參數突破臨界值變成主流方法常見的臨界點數值都是動輒xxB起跳 這換算需要的記憶體大小就是100G以上
運算則是需要TFLOPS
所以算力為王會繼續走一陣子 只是戰場也會慢慢轉移到Inference這端
https://www.aili.com.tw/message2_detail/112.htm (表二有各種晶片在AI推理效果)
EdgeAI也會是一另外一個戰場 不過Google在軟體上有通吃此雲端和本底端edge solution我自己是認為在Edge端 應該最終會走混搭的本地端模型和雲端模型併算用
且老黃手上還有一個的NVlink/NVSwitch這技術 (NVLink4 100G PAM4 serdes)
目前只有B和M有在做 但B和M有的 老黃也都有
※ 引述《LDPC (Channel Coding)》之銘言:
: 借用這個標題吧 很久以前 我忘記是在哪篇看到的老美的如何推薦推介買老黃股票的原因: 其中有一個點是 NVDA是殺手 擅長幹掉無數公司(e.g. 3dfx,ati)
: 然後這週末個小道消息 老黃瞄準30B市場打算做客製化晶片佈局....也就是要跟AVGO搶市場了
: http://tinyurl.com/y6e2ktpj 這也是可能為以後瞄準Inference的可能市場一個佈局了
--
19
Re: [討論] AI晶片這我來回答吧 AI晶片一般是指用來加速深度學習模型推理的晶片 如果是訓練通常還是利用Gpu 因為生態系比較成熟 那麼深度學習推理時間會耗在哪裡呢 通常就是convolution 或是Gemm24
Re: [新聞] AI晶片競爭開跑,谷歌公布第四代TPU,宣周末下班閒聊, 發現tech版沒有這篇文章, 那就在這裡討論好了, 其實我說的東西都是網路 google+wiki 就有的東西, 先簡單說明一下現代化的ML DeepLearning的基本概念,15
[爆卦] 全球最強中國 AI 模型被爆是套用 Meta 的李開復 所創立零一萬物 推出全球強中國 AI 模型 包括 Yi-6B 和 Yi-34B 兩個版本 取得了多項 SOTA 國際最佳性能指標認可 成為全球開源大模型的雙料冠軍 擊敗了 LLaMA2 和 Falcon 現在被爆是套用 Meta 的 LLaMa 模型架構X
Re: [爆卦] 中央研究院詞庫小組大型語言模型對於LLM只有這一點認知程度的話,最好不要就這樣出來帶風向會比較好,不然先去 跟陽明交大校長先去旁邊先學習一下什麼叫做LLM,不同LLM之間又有什麼差異。 第一個錯誤的認知是認為LLM就應該要提供正確的答案,事實上LLM是一個機率模型, 它所做的事情是基於模型的權重預測下一個token(詞塊)最高的機率是那個,它不是資 料庫,所以你不能因為它答的一個答案不是你所想的就是說這個模型如何如何。11
Re: [討論] AI晶片現在業界單純說AI晶片是太籠統的說法了, 為了獲得最高效能與最高CP值, 業界把AI晶片細分成以下幾類, 1. Training 訓練: 這是目前業界最難做的部分,6
[情報] 微軟, META合作 Llama2上 Azure1. 標題: 微軟與META擴大他們的AI合作關係,讓Llama 2上Azure以及 windows 2. 來源: 微軟公司 3. 網址:6
Re: [問卦] 為何台灣是AI晶片重要生產地,但是AI軟體模型都沒一般而言,所謂的AI Chip指得是特化過往CPU功能的晶片,過往CPU集成的晶片會強調指 令控制跟緩存的功能,但DL/AI模型其實更強調運算元(ALU)所以像NPU、GPU就是特化計算 元其他的功能就縮到最小,所謂AI專用晶片本質上就是這樣的一種類CPU特化架構的晶片 。因為對於當前所有的DL模型原子化到最小計算就是在做矩陣加減乘除跟線性變換。 不過目前整個設計還是follow國外廠商的需求,所以台灣更像是代工上游廠商。當然啦!5
Re: [討論] AI晶片多嘴插句話,除了Training跟Infer差異外,其實真的要細分還有從硬體、軟體的優化, 從最上層到底層跟硬體的結合才能夠把edge computing提升到產品落地階段。 像是閣下說的自然語言這塊把Transformer從軟體層面做降維優化、新一代更輕量的CNN模型 ,還有既有的半精度FP8這種跟指令集優化,另外這幾年學界比較有研究的從Complier上做 優化通用矩陣乘法。1
Re: [問卦] 為什麼人工智慧在這今年炸開了這一波是十年前的AlexNet才開始讓ML實用化 以往都只是研究 AlexNet橫空出世 GPU+大型CNN 辨識率高 忽然讓一堆人想到 啊幹 原來GPU能幹那麼複雜的事情 所以從2012年之後 ML/AI的研究如同雨後春筍呈現爆炸性的增長 ML從事的人多 想法就多 推出的模型多 成功的總會有幾個