PTT評價

Re: [討論] AI晶片

看板Tech_Job標題Re: [討論] AI晶片作者
waitrop
(嘴砲無雙)
時間推噓11 推:11 噓:0 →:10

現在業界單純說AI晶片是太籠統的說法了,
為了獲得最高效能與最高CP值,
業界把AI晶片細分成以下幾類,
1. Training 訓練:
這是目前業界最難做的部分,
目前只有Nvidia 跟 Google TPU 有量產並且是大規模用在資料中心,
基本上Training 需要用到的算力是Inference 的百倍到百萬倍以上,
這塊主要是用大量的資料來訓練出最佳深度學習模型

2. Inference 推理:
這塊是目前大部分的公司與新創公司最想要做的部分,
畢竟算力要求比Training低很多,
但是需求的量卻是Training的百萬倍以上,
這塊也是你我大部分人每天在接觸的AI晶片,
主要是拿已有深度學習模型來套用即時資料得到即時結果,
比方說手機裡頭的AI晶片: Google tensor, Huawei NPU 等,
監視器(尤其中國出產的)裏頭的即時人臉辨識, 天網系統,
自駕車裡頭的即時自駕運算晶片,
另一種說法,就是 edge computing,

當然Inference 推理不完全等於 edge computing,
因為很多資料中心還是會用Inference 推理晶片來做Training/Inference,
但是edge computing就一定是Inference,

然後ㄋ,這又可以因為演算法與應用的不同,
而又更細分不同應用的AI晶片,
目前最成熟也是最精準的就是影像應用的AI晶片,
精准度可到99.x%,
這也是中國最大力推動的部分,
例子就是我前面說的人臉辨識, 天網系統, 自駕車, 手機等,
目前你看到中國甚至是大部分的新創公司,都是做這塊,
中國甚至在一些地方可以得到更高的效能跟更精準的結果

但是還是有非常多不同的應用與需求,
比方說自然語言處理,
包含文字或是語音的處理,
這塊目前的發展就相對不理想,
不論是效能或是精準度都不理想,
不信你去玩一下一堆線上語音幫助系統,你就知道我說的,
但是這塊需求很大,
想想看接客服電話的工作就是個例子,
還有更多的應用,像是Ptt灌水機器人,
臉書發言省查系統等,
目前這塊只有Nvidia Google TPU兩家有晶片

然後還有一些非常特殊也相對冷門的AI晶片,
像是 youtube argos chip
https://9to5google.com/2021/04/22/youtube-google-custom-chip/
Smart NIC 等...


※ 引述《sheepmanager (AI專家)》之銘言:
: 這我來回答吧
: AI晶片一般是指用來加速深度學習模型推理的晶片
: 如果是訓練通常還是利用Gpu 因為生態系比較成熟
: 那麼深度學習推理時間會耗在哪裡呢
: 通常就是convolution 或是Gemm
: 當然convolution 可以透過線性代數幾次的轉換
: 變成gemm 這也是一門學問
: 所以矩陣相乘等於是最重要的運算了
: 你只要能加速這麼簡單的東西
: 就能號稱你在做AI晶片了
: 不斷的堆硬體上去 性能就出來了
: 甚至有些公司走火入魔
: 連非矩陣運算的指令都做了
: 因為深度學習的模型越來越大
: 所以並行去運算矩陣相乘就是很重要的事了
: 你的硬體並行時 耗電跟降頻做得夠好的話
: 就能有點能見度了 現在中國的新創沒有一家做到的
: 所以就有一些人腦袋動到光計算上面
: 訊號轉成光能計算 算完再轉回電
: 但這非常的不穩定 基本上也是不可能回收成本
: 好了 你說這麼簡單的話 那也很容易啊
: 然而 深度學習在運行過程中 還有一個很大的耗損
: 就是算子與算子之間的資料傳輸
: 用硬體加速過後 每個算子的時間大幅縮短
: 但是彼此之間的memory copy仍然耗損嚴重
: 於是cache或是local memory變的異常重要
: 算子與算子之間的fusion做得好
: 搭配上速度夠快又大的memory基本上也很厲害了
: 中國那一堆新創耗電降頻不行
: 現在就往這方向拼命做
: 那麼AI晶片前景怎麼樣呢
: 老實說 前景是死路一條
: CPU GPU 大公司都在從自家指令來優化模型
: 或是直接配上特殊資料格式 如tf32 fp8
: 華為的c4比起來就是個花拳繡腿 還推行不起來
: 我現在底下50多人就在做未來的方向
: 從模型優化演算法 記憶體策略 框架
: 到底層assembly加速 完整的一套方案
: 如果你有關注一些新的paper
: 優化到最後 對比常用硬體 AI晶片根本沒有優勢
: 就像挖礦沒有收益時的礦機一樣
: 純電子垃圾
: ※ 引述《QQmickey》之銘言
: : 雖然從新聞上看到 三星已經出了 不知道是不是唬爛的
: : 自己也是理工背景 但是想問科技版的大大們
: : 這是真的嗎?
: : 我所學的 覺得不太可能
: : 雖然很多事很難講 已知用火
: : 諾貝爾物理獎也一堆錯的
: : 難道是神學

--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 24.5.140.67 (美國)
PTT 網址

Neistpoint 09/18 12:35Smart Nic 也算?

看你怎麼定義AI 晶片, 狹義定義當然Smart Nic 不是 AI 晶片, 廣義定義所有AI 晶片都是硬體加速器 Accelerator, Smart Nic 當然算是Accelerator, 而且你也不知道Smart Nic 裏頭偷藏了甚麼東西, 搞不好主動幫你濾過關鍵字跟特定網站/ip, 充分展現天網價值

OBTea 09/18 12:47這篇才符合現況啦,現在CPU和GPU是要和NPU/APU拼什

OBTea 09/18 12:47麼…

OBTea 09/18 12:55中國為了影像辨識AI晶片還去特刻監視器專用的sensor

brightest 09/18 12:57ARMv9有一些為了AI的Extension ARM也想吃edge這塊

那個充其量就是個coprocessor, 類似neon, vfp這種, 跟專屬的tensor/NPU 比起來, 效能還是差很多,

demonhell 09/18 13:01Intel也有AI啊(Nervana/Habana)但爛到美國不禁運

demonhell 09/18 13:03中國就更多了,燧源/商湯/寒武紀都有投片,效能就..

hsiliang 09/18 13:16推分享

hsiliang 09/18 13:18只不過中國掌權者真的很變態,徹徹底底的監控人民

hsiliang 09/18 13:19這些影像辨識系統有一大部分拿去維穩

xonba 09/18 15:28這篇比較正確

lalacos123 09/18 15:51有大大知道AI晶片的需求量跟價大概是怎樣的概念嗎

edge 需求量很大, 尤其在中國, 你知道的, 全世界的手機現在幾乎都需要一顆影像處理AI晶片, 幾乎每家都有, 以後自駕車普及的話也是每台車要好幾顆這種即時影像處理晶片, 價格我不熟

lalacos123 09/18 15:51 例如跟CPU或GPU 車用包的話

mingshin123509/18 16:03不就邊緣運算 類CPU的東西啊 不過有特化而已

以研發人員的進入門檻而言, 不論是data center 或是 edge computing 都是一樣的門檻, 就是CPU/GPU技術背景, 基本上目前全世界在做AI晶片的人都是做CPU 或 GPU出身的, 但是邊緣運算 絕對不是類CPU這麼簡單, 裏頭硬體設計最複雜的是多核處理(遠比CPU多很多得多核), 用數學的說法就是矩陣運算硬體實現, 還有 memory cache bus 等非常複雜

hank850503 09/19 04:10那有誰知道 Tenstorrent 這家如何

我只知道 Jim Keller 到這家公司當CTO, 其他的我不清楚

※ 編輯: waitrop (24.5.140.67 美國), 09/19/2022 04:55:31

QQmickey 09/19 09:08

bxxl 09/19 22:27感覺跟CPU差很多吧, 比較像systolic array

mmonkeyboyy 09/20 00:33現在拚DSU比較有賺頭啦

mmonkeyboyy 09/20 00:34主要你演算法進步 資料進步 沒有ㄧ定能有賺頭的東西

mmonkeyboyy 09/20 00:34 IC很難下去的

vlstone 09/21 00:36