Re: [請益] 大家怎麼看這一波AI浪潮
來講一個故事好了 Robert G. Gallager在1960透過類神經網路啟發
根據Message Passing 寫了一個叫做LDPC的更正碼 根據他的paper理論可以有效
接近Shannon bound 當時被一堆人視為是一個垃圾paper 因為當時效能比Turbo-code
還爛 結果在2000年初 因為硬體和記憶體效能大增 這算法突然變成主流
才還給這老兄一個公道 所以算法有時候太先進 硬體不支援這也是個問題
時間回到1989你看當年和藹可親的Yann Lecun還在認真做學問的時候 那時候要跑
一個CNN架構有多困難
https://www.youtube.com/watch?v=FwFduRA_L6Q
現在連一個高中生都會寫MNIST簡單CNN堆疊 這就是因為前輩的累積寫了一堆Library
和硬體的邁進 你知道在2015前寫這些Deep Learning框架還是一堆啥鬼Theano
甚至還要去碰cuda 更或者要去compile Caffe這些鬼玩意 現在框架在CUDA生態圈
發展得很成熟了 套一句巴克利的話 連他阿罵都知到如何寫pytorch 去訓練MNIST
手寫數字
啊 你要可以說 那其他家也可以這樣搞自己的AI eco system啊 也是可以啦
i皇一直都想這樣幹 他們開發了oneAPI Deep Learning Library但我到現在還是不會用
像蘇媽就比較實際點 可能會瞄準inference這塊 畢竟你訓練完後的Model
可以在不同平台去deploy 畢竟deploy
就不會像在training時候 各種開發得吃NVIDIA eco system 在deploy各種模型
只要能轉成c/c++代碼 就不在需要像以前training一樣很吃eco system 同時
在優化inference時候 不同計算系統可以針對4bit/8bit/16bit加速
像Q社就開發了許多Low Level API 專門設計給自家NPU使用 可以用來優化轉到他們
系統上的deployment 上
NV賣的就是鏟子 當年NV在3D顯示卡和ATI大戰時候也是每半年到一年瘋狂提升3D效能
https://www.youtube.com/watch?v=TeJ2IFae2-0
如果時間回到199x 當3D Render演算法出現時候 照你邏輯 你應該覺得為啥要買
啥鬼N家股票 買3dfx這家公司股票就對了 就好啦 畢竟誰都可以做遊戲顯卡 對吧!!!!
※ 引述《zuvio (zz)》之銘言:
: 我發現很多人陷入一個迷思
: 能做電腦的公司這麼多家
: 為什麼AI一定要靠NV才能用
: chatgpt就不是靠NV起家的啊
: 也是有其他公司會做伺服器晶片
: 說不定intel德儀之後有更好的工業伺服器晶片屌打NV
: 現在不知道為什麼很多人覺得AI是建構在NV的上頭
: 買一堆NV相關企業的產品
: 但實際上AI根本就是軟體
: 像google搜尋引擎一樣的軟體
: 根本不一定需要哪間公司的伺服器才能做
: 隨便一家有做伺服器的都能用好嗎
: 之前挖礦區塊鏈那些公司也能做AI好嗎
: 所以這波AI真的在亂漲,不知道誰說只有NV能搞AI
--
pentium配vodoo的年代啊
好懷念
這電腦算好的了吧...以前還有5.25吋磁片
pentium vodoo加個聲霸卡sound blaster
還要再加一張 Matrox G400
3d加速卡那段真的是歷歷在目 幫你推ID正確XD
那bing怎麼加入chatgpt的,要順便說說嗎
所以微軟也是用NV才搞出chatgpt的bing?
@zuvio 你沒有看清楚這篇想表達什麼
是他沒研究微軟怎麼套用GPT-4 LLM
辨識手寫數字是有多少產值啦
可是我隔壁鄰居小孩國中生會寫辨識手寫數字deep learning耶 想當年我國中就只會騎腳踏車 然後被狗追 電腦只是用來打電動的 這樣度過童年!
※ 編輯: LDPC (76.103.163.64 美國), 07/17/2023 14:01:44比我沈迷在一元打大金剛遊戲機強兩百萬倍
意思是 現在站隊NV就對了 (我理解有誤嗎?
Matrox G400 +Vodoo?
未來真的是猜謎大賽
辨識手寫數字現在是tutorial等級 只要會複製貼上就
做得到
講古讚讚讚
幹你的ID就是LDPC啊,媽的養帳千日用在一朝
樓上一堆老人
爆
首Po小弟買了一檔 號稱相信黃董 年底就懂的股票 從70跌到現在剩30好像還守不住 結果看到AI概念股狂漲 大家都賺錢 結果我買的持續探底 我在想 是不是該果斷停損 加入AI概念股的世界76
首先 你懂Ai 嗎 不懂? 沒關係 我們先看個影片3
因為OpenAI的關係,大家都在炒作AI相關股票 你各位知道OpenAI的創始人之一sam altman他的另一家公司嗎? 這是他另一間公司12
題外話,分享一個真實案例 有一次接到一個客服電話 對方用中國口音問了我一些不知所謂的問題 我隨口回了兩句就草草結束對話 過了一兩個小時10
怎麼看呢,除了靠做夢 也就只能來算算看啦~ 根據TrendForce預估 今年AI伺服器出貨量會有38%的成長 2022~2026年AI伺服器出貨量年複合成長率為22%。22
跟著上阿 別留下來洗碗就好 之前不就演過了 DR之亂 沒德醫1塊多漲到7011
因為本身是影像相關工作者 對ps-Ai稍微有認識一下 附上Adobe官方的ai生成使用者準則 l2
你們都想太多惹 核心問題的答案 一直都很簡單 那就是 買越多省越多15
一堆大企業跟NVDA下單 就跟買軍火一樣 為了戰爭不要輸人 恐怖平衡 但是你開evo就一定贏86? 企業服務跟產品能在end user上撈到多少錢
37
Re: [標的] NVDA財報其實對於妖股而言, 財報數字如何根本就不重要, 在12/17 鄉民鼓吹放空NVDA, TSLA的時候, 我就警告不要放空妖股, 雖然我不敢買本益比這個高的妖股,37
Re: [請益] 想從零開始轉行當AI軟體工程師這篇應該算是AI勸世文 如果你之前沒有任何工程背景,想要直接轉入AI的話,那真的是建議放棄。 AI發展至今,其實要入手真的非常容易,某種程度上只要知道如何呼叫API (Python為介面)就可以完成很多事情。 我經歷過幾個用deep learning的實際例子,都是要解決既定的工程問題,33
Re: 本來學ML是該轉路還是繼續鑽研一個ML應用要落地產生商業價值 在data scientist把model訓練出來之後 還有很長一段路才能真正進到生產環境 ML系統的複雜度其實非常高 從資料收集,特徵處理, 模型訓練, 模型測試, 一直到後面的模型部署,模型監測22
Re: 本來學ML是該轉路還是繼續鑽研^^^^^^^^^^^^^^^^^ 恩..."後段國立科大資管",好一點的公司可能連HR那關都過不了 : 因為一些私人原因是不用當兵 : 所以論文完成後準備開始找工作 : 目前程度:24
Re: [新聞] AI晶片競爭開跑,谷歌公布第四代TPU,宣周末下班閒聊, 發現tech版沒有這篇文章, 那就在這裡討論好了, 其實我說的東西都是網路 google+wiki 就有的東西, 先簡單說明一下現代化的ML DeepLearning的基本概念,11
Re: [討論] AI晶片現在業界單純說AI晶片是太籠統的說法了, 為了獲得最高效能與最高CP值, 業界把AI晶片細分成以下幾類, 1. Training 訓練: 這是目前業界最難做的部分,7
[請益] offer請益(宇匯/趨勢/台達/凌陽/華碩)本篇為代 po HackMD 好讀版: 排版差、文長請見諒 ## 個人背景:6
[情報] i皇6代以上內顯開CUDA加速 最高buff 52%本來想轉xf的 但我真的看不懂他真的在寫三小(抑或是說源頭cnbeta真的不知道寫什麼) 英文原文: 原作者Github:5
Re: [討論] AI晶片多嘴插句話,除了Training跟Infer差異外,其實真的要細分還有從硬體、軟體的優化, 從最上層到底層跟硬體的結合才能夠把edge computing提升到產品落地階段。 像是閣下說的自然語言這塊把Transformer從軟體層面做降維優化、新一代更輕量的CNN模型 ,還有既有的半精度FP8這種跟指令集優化,另外這幾年學界比較有研究的從Complier上做 優化通用矩陣乘法。- 作者: vinonota (深藍色) 看板: Engineer 標題: [情報]【美商授課】Xilinx-AI實作課程開始報名 時間: Tue May 25 20:15:22 2021 ☆財團法人資訊工業策進會與全球最大FPGA晶片商Xilinx(賽靈思)合作,共同推動人工智 慧(AI)人才培訓,邀請具Xilinx FPGA產品應用經驗講師進行講授