Re: [問卦] deep是軟體,干輝達屁事啊...
我是覺得能夠低硬體跑GPT模型反而更能推廣AI的應用,
今天雖然這些大公司是千片萬片的加速卡在買,但是真正能讓加速卡跟
相關硬體大賣就是要普及才行不是嗎?
君不見現在一大堆AI相關專案,基礎模型相關的應用,都是需要自架伺服器
調整超參數、模型微調等,更勝著進行多種模型的整合應用以及進行模型的
可信任與安全驗證等。
另外,難道大家都覺得現在GPT模型已經夠聰明了嗎?
很顯然的不是,只是很擅長回答參考答案夠多的問題。
如果要讓GPT模型更上層樓需要的算力是以非線性的方式增長,只能說deepseek
的出現只是帶給AI相關的發展更多的希望罷了。
且其餘的競爭者為了迎頭趕上,甚至超車,只會加大投資而已,畢竟AI的戰場
目前是群雄並起,並沒有出現獨霸的狀況,所以後續還很有得玩。
※ 引述《taot917 (每天一點新鮮)》之銘言:
: deep出世,應該是傷到chetgpt
: 我就不懂,甘輝達屁事
: 這軟硬體的區別阿
: 有人說,因為不需要那麼好的硬體就能跑
: 這兩回事阿
: 就很像女人,原本洋妞很美奶大又緊
: 現在你說出了個中國妞,一樣可以
: 但是身材上輸很多
: 這不同賽道阿
: 腦子可以成長,但奶子就是奶子
: 肉體的差異後天無法改變阿
: AI的整理對答,現在沒什麼實際作用
: 只是讓大學生偷懶而已
: 後面的製圖跟影片編輯
: 才是算力的需求來源吧
: 我剛問deep,他也是叫我用gpt那邊的達利
--
天才的腦容量也沒有比你大多少阿XD
4 希望NVDA再跌一些 我要壓身家
更聰明就要腦容量非線性成長
顯然是錯的
不然愛因斯坦頭應該比籃球還大
Scaling law也沒失效吧
很顯然的人腦真正使用比例不高,並非不夠
用,愛因斯坦雖然開了一道門,但是後續
卻也知道這世界的門多得可怕,並且可怕的
不簡單。並非要唱衰deepseek,但真的能有
多強,後續值得看看,老實說deepseek用了
多少算力算出來,除非有人能做artifact
demonstration,不然也只是喊爽的而已
拜託等我上車,我要all in
爆
首Podeep出世,應該是傷到chetgpt 我就不懂,甘輝達屁事 這軟硬體的區別阿 有人說,因為不需要那麼好的硬體就能跑 這兩回事阿6
舉個例好了 你的車子要加汽油才能跑 所以壟斷汽油就是賺翻 然後有人現在發現 某種車子的做法2
你這比喻太爛了 換我來 假設你要鬆一下 刺青假奶老台妹1s要6k 現在有年輕大奶越南妹只要3k
都不夠傳神 換我來比喻 關鍵時刻 劉寶傑一集10萬 一週5集 過年放假兩週 一年250集 2500萬的劉寶傑只會講:「真的假的」
很難理解嗎??? 舉個例子. 原本要花10E 買硬體,1E 買軟體 現在只要 3E 買硬體,2E 買軟體 AI 效果一樣,甚至更好2
換我來比喻 你在一蘭打工一個月薪水四萬 跳槽去五十嵐打工事情比較少還可以領200萬 誰還要去一蘭? --1
有相關,但大部分 真的關輝達屁事 那些一直些 deepseek 真的民族主義過剩,是真的強拉 會強到能對 輝達有什麼很大的影響 我到是覺得想太多了 民族主義過剩的人思想大概就這樣 deepseek 好棒棒,我大中華民族耶,輝達算什麼咖 射惹
2X
[爆卦] 杜奕瑾:我們Ailab用的資源更少!台灣Ai教父杜奕瑾FB發文了 回應DeepSeek的熱潮 簡單來說就是Ailabs也有自己開發的gpt 而且用的資源更少 DeepSeek很大一部分靠的是行銷成功![[爆卦] 杜奕瑾:我們Ailab用的資源更少! [爆卦] 杜奕瑾:我們Ailab用的資源更少!](https://i.imgur.com/x61Iogzb.jpeg)
21
Re: [問卦] 為什麼AI 這2-3年進步這麼神速?我剛好研究所讀資工領域的。 你應該知道在這次AI大模型震撼世人之前,電腦科學界在紅啥嗎?? 就是Big Data,大數據,資料探勘。 但是因為"算力"不足,所以在十年前,幾乎都是關注於儲存與基礎處理而已。 譬如NoSQL數據庫與一些簡單的資料探勘,那個時候SVM分析歸類資料可火的。![Re: [問卦] 為什麼AI 這2-3年進步這麼神速? Re: [問卦] 為什麼AI 這2-3年進步這麼神速?](https://jochen-hoenicke.de/queue/mempool-20201126-eth.png)
15
[爆卦] 全球最強中國 AI 模型被爆是套用 Meta 的李開復 所創立零一萬物 推出全球強中國 AI 模型 包括 Yi-6B 和 Yi-34B 兩個版本 取得了多項 SOTA 國際最佳性能指標認可 成為全球開源大模型的雙料冠軍 擊敗了 LLaMA2 和 Falcon 現在被爆是套用 Meta 的 LLaMa 模型架構![[爆卦] 全球最強中國 AI 模型被爆是套用 Meta 的 [爆卦] 全球最強中國 AI 模型被爆是套用 Meta 的](https://user-assets.sxlcdn.com/images/987821/FrlX5hBJzYiI62PNP5FUKt8y5n4Y.png?imageMogr2/strip/auto-orient/thumbnail/1200x630>/format/png)
7
[請益] 其實DeepSeek用了幾顆GPU根本不重要用GPU硬體加速AI運算這件事 本來就不是無限制使用, 有些人講到AI就只想到暴力運算 找最大質數...要靠AI某某模型花○○年 要是大家指望那種爛模型,1
[問卦] 杜奕瑾:我們發表的與deepseek趨勢所見略s幫縮減翻譯 反正就是deepseek出來之後 我們創世神說 之前1/21我們發表過了一個FedGPT 趨勢跟現在的DEEPSEEK可以說是英雄所見略同啊![[問卦] 杜奕瑾:我們發表的與deepseek趨勢所見略s [問卦] 杜奕瑾:我們發表的與deepseek趨勢所見略s](https://i.imgur.com/7uWLqORb.gif)
6
[討論] 青鳥別慌張,創世神說話了我們在1/21台灣AI產業年會發佈了Taiwan AI Labs訓練的小專家模型FedGPT。 幾個重點: 1. 算力很重要但不是全部,資料、演算法也是。前面是硬體功夫,後面是軟體功夫。 2. MoE 不是新觀念、是趨勢,未來是專用落地小模型的世界。在我們年會就提到AI永續 會是全球下一階段的努力,甚至更早與台大陳疬悎v開源TAME時就提及多專家多模態小4
Re: [新聞] DeepSeek爆紅引AI「股瘟」!ASML歐股開盤算力愈強,模型愈強~ 就算deepseek 真的不用高階晶片就能訓練出說不弱於openAI o1 的模型, 那未來新的模型在有高階晶片的加持下, AI 不是會發展的更快、更難以想像嗎? AI 發展的更快,商用、消費用的領域愈多,對半導體的需求愈大,X
Re: [問卦] 中研院自己做的大型語言模型怎麼了?這語言模型基礎是建構於Llama 2,meta提供的開源模型 另外Atom 7b則是中文社群跟一間中國公司在Llama 2之上訓練成中文使用者適合的模型, 也是開源且開放商用 技術上也不用解釋太多,反正開源模型他本來就不會像GPT或百度的文心一言那樣限制某 些爭議性回答![Re: [問卦] 中研院自己做的大型語言模型怎麼了? Re: [問卦] 中研院自己做的大型語言模型怎麼了?](https://i.imgur.com/GQlNhZjb.jpg)
3
Re: [黑特] 民進黨支持者思想真的很幼稚青鳥跟塔綠班們 都不知道DeepSeek是開源的 所以才有那些奇怪自卑推論 這次中國產生DS 其實對全世界都是一個正面的發展 也就是 花小成本也可以 作出 大成本模型效能的AI語言模型 重點是這個模型的程式碼跟架構 還跟全世界分享 也就是 台灣人照抄 也可以作出自己想要內容的 DeepSeek1
Re: [問卦] 為什麼人工智慧在這今年炸開了這一波是十年前的AlexNet才開始讓ML實用化 以往都只是研究 AlexNet橫空出世 GPU+大型CNN 辨識率高 忽然讓一堆人想到 啊幹 原來GPU能幹那麼複雜的事情 所以從2012年之後 ML/AI的研究如同雨後春筍呈現爆炸性的增長 ML從事的人多 想法就多 推出的模型多 成功的總會有幾個