Re: [新聞] OpenAI執行長:DeepSeek令人驚豔 但關鍵
就是算力才是絕對 (新聞用運算這詞可能不太好懂)
https://x.com/karpathy/status/1883941452738355376
吃瓜可以看下面翻譯
https://x.com/op7418/status/1884065603184681162
無窮算力->無窮智能 這就是OpenAI和Andrej Karpathy, Jim Fan甚至認為
高算力模型可以訓練更強大模型 不要忽視scale
像之前有人在懷疑v3有用到gpt合成數據 Andrej論點是 你要合成高品質數據 也是要算力這又跟老黃提到高品質render ->算力
好了QQ 不要再跌了 我已經在看youtube學習如何炸薯條了
※ 引述《rayisgreat (在過往中無盡徘徊)》之銘言:
: 原文標題:
: OpenAI執行長:DeepSeek令人驚豔 但關鍵在運算
: 原文連結:
: https://www.cna.com.tw/news/aopl/202501280099.aspx
: 發布時間:
: 中央社 2025/1/28 13:29(1/28 13:48 更新)
: 記者署名:
: 曾依璇/李佩珊
: 原文內容:
: (中央社舊金山27日綜合外電報導)人工智慧(AI)公司OpenAI執行長阿特曼今天說,中: 國新創公司「深度求索」(DeepSeek)的R1模型「令人印象深刻」,但OpenAI認為更強大: 的運算能力是OpenAI成功的關鍵。
: 路透社報導,成本低廉的中國AI模型DeepSeek上月開始吸引全球目光,當時這家公司在論: 文中表示,使用較低性能的輝達(Nvidia)H800晶片訓練其DeepSeek-V3模型,只花費不: 到600萬美元。
: 根據DeepSeek官方微信帳號貼文,上週推出的DeepSeek-R1模型比OpenAI的o1模型便宜20: 倍到50倍,依任務內容而有不同。
: 阿特曼(Sam Altman)在社群平台X寫道:「DeepSeek的R1模型令人印象深刻,尤其是以: 這個價格所能實現(的結果)。」
: 他還說:「但我們主要是很高興能繼續執行我們的研究藍圖,並認為要成功完成任務,現: 在比以往都更重要的是更多運算。」(譯者:曾依璇/核稿:李佩珊)1140128
: 心得/評論:
: https://imgur.com/iSz2Nr0
: OpenAI 執行長 Sam Altman
: 今日也對近來興起的中國 DeepSeek 發表了回應
: 台股美股會繼續往下or往上回彈?
--
鏟子很重要阿 但人家用湯匙挖得跟你鏟子一樣多
=_= 你沒搞懂 沒那些gpt4o存在(用高算力產生) 你v3訓練用的數據集可能都產不出
※ 編輯: LDPC (76.21.72.78 美國), 01/28/2025 15:25:31 ※ 編輯: LDPC (76.21.72.78 美國), 01/28/2025 15:26:24美國被發現只會拼命買鏟子
問題是湯匙也是老黃造的,這場暴跌他最冤好嗎
蒜粒是啥
我已經在研究職訓局水電班怎麼報名了
基本上就是沒人挖石油 你要怎麼精煉加工
老黃真的跌的莫名其妙
Deepseek只是精練而已 底層還是大模型還是尻別人的
你有算力,我有蒜粒
中國學chatgpt成就DS,DS被分析完,還不是要靠算力
成就另一個里程盃......總結:AI 更進化需演算法+
算力
幹,我要去少林寺學料理了
deepseek的底層大模型好像還是用openai的......
對阿,就演算法抄來,然后再進化
自然界可以參考鴨
NV都開釋了!只是市場還在恐慌
人腦不是自然界最大的 但算法是最好的
現代人類腦容量還比古代少的多
確實 好的鏟子才能鏟出好的薯條
光推算力 大概就跟一個國家人口一直增加 難道就會進
步嗎
老黃暴跌冤 ?? 因為事實就證明不需要這麼高階的
算力是後天努力
模型是先天基因
你現在問老美幾大AI 看還會想買高階的嗎
生意人最重要的一件事 成本 這是永遠不變的
花越少的錢 賺越多的錢 這就是生意人
你等之後財報周看軟體巨頭有沒有下調資源支出就知道
了
AI模型現在根本還沒到賺錢階段吧
AI會被吹那麼大是因為還做一個夢,這個夢還沒實現
工欲善其事 必先利其器,硬體還是最重要
AI現在這些東西都只是在做夢過程中的副產物而已
倒不如說如果美國真的更重視和中國的軍備競賽反而會
投入更多資源
把年菜退一退,吃泡麵了
晚上就漲回去了
會啊 當然繼續買高階 抄不出來是人的問題
這邊大概多數人沒做過生意吧?我做一個產品花了一年
鏟子就是挖薯條啊
時間一百萬成本 然後製造一個1000元 推出後被對手拿
去研究改造他只花一個月十萬元 做一個只要100元
拓荒者當然花比較多錢不是嗎?DS公佈的600萬訓練成
本也是單獨算V3 r1沒公佈 前期研發試誤跟設備成本
也完全沒公佈 大家可以思考一下 這些通通都也是可以
公佈的 為什麼DS只選擇公佈V3訓練成本
如果真的要證明我可以降本增效 應該是全都公佈吧?
然後呢 中國政府還加碼一兆元投資AI 為何要加碼?
有人分析r1 是post training 這樣就合理了 基礎結
構一樣之下pre training 算力一樣得消耗那麼多 講
白就濃縮雞湯塊賣你比較便宜不是正常的事
照很多人說算力過剩 現在不是應該減碼嗎.....?
看到現在覺得根本不足以影響長期需求 反而是要看川
普那個瘋子到底要搞啥毛
NV B系列重點也擺在推論上,宣傳比上代快15x
Deepseek八成是抄的吧 怎麼看就華西街要出貨
如果DS是拿現有的模型再加以改進訓練,那低成本是
合理的,跟從無到有完全不能比
鏟子還是需要 越堆越多就對了
機構出貨會搭配新聞 一邊崩一邊出嗎?
搞不好也在跌阿川想要加關稅的事啊
加關稅成本or稅金增加 晶片價格上升 但毛利沒增加
大國博弈、巨頭間的賽局拿來跟巷口小吃攤類比 ㄏ
會翻漢堡了嗎
人類炸的薯條有比機器好吃嗎? 成本有比機器便宜嗎?
那很好啊不用花錢買nv的卡
OpenAI只想賣鼎泰豐 但是ds只是賣幸福餐盒
但是普羅大眾 都偏向買幸福餐盒 只能說客群不同ㄅ
我覺得在探討的是變現率 幸福餐盒能獲利
但是鼎泰豐 要賠錢經營
OpenAI問題是o1訂價太高,4o mini比DS V3 API便宜
o1定價高一方面可以減少擠壓到人類的工作
ds能靠免費 提高普及率 再出一個高階版的給人訂閱
以DS免費放model+低價,中國會有一票人幹不過AI
低階碼農估計能砍一半以上,翻譯砍一半,美工砍一半
成本夠便宜出一個免費的 讓你看廣告也能獲利
其他人還要打嗎
他都免費放出來了,別人可以直接拿來用
OpenAI今天遇到的問題,就是明天DS的問題
中國還要處理接下來更嚴重的失業問題
今天DS省下前段model的成本,別人省整個model的成本
一樣開API, 別人可以在殺50%價格
開源的好處就是大家 一起優化阿
不能說 沒受益阿
我是不信有那麼多廠商要找人優化
光是他現在放出來的版本就夠強了, 買卡內捲一定發生
訓練數據集不是用其他AI產生
你這樣說 那ds幹嘛要開源 真的佛心來做功德的嗎
訓練數據集主要是來自各種爬蟲專案, 還有各種專業
薯條都沒了 日子怎過
就是有好處 才會開源
或非專業的電子書庫、百科全書
之前V2版時公布的數據集概略資料是說60%程式碼10%數
學30%自然語言文本
程式碼的部分來自GitHub跟The Stack Flow
程式碼的部分來自GitHub跟The Stack Overflow
台灣又嬴麻了
先準備紙箱去公園佔位ㄅ
推推推
今天寒流來 公園好冷
呆灣傻蛙還在臭人家只會賣鏟子,你知道多少應用因
為這些鏟子被開發出來改善生活嗎== 這就是AI的未來
,未來就是完全取代所有電子數據層面的應用,誰沒
有AI就輸
ds才不是免費餐盒,他只是口糧餅乾,現在大廠免費
開放的模型才是免費餐盒的等級,ds成也成本,最終
很高機率也是敗在成本(算力)
算力過剩問題只是在於目前瘋狂堆疊算力看起來沒有
那麼劃世代的亮眼成績,對很多人來說4o甚至4omini
就足以解決生活或工作上多數問題,而各個專業領域
也有各種開源/便宜模型可以使用,相較之下狂堆算力
的o1或o3並沒有真正做到像gpt3與4的那種劇烈差異。
順帶一提,開源本來就是這個圈子的文化,開源是有
很多好處的,ds的問題很明顯,他們需要盡快豎立一
個有影響力的IP,開源就是一個很好的方式。
推 LD大,昨天瘋狂撿鑽石! JoJo的不滅鑽石!
喔拉喔拉喔拉喔拉喔拉喔拉!
算力永遠不會嫌多啦
你可以用不到,但廠商不能給不起
你用nn不去堆node最好模型夠強….
本來就不嫌多了。現在Ai連比大小都不一定每次都對了
爆
Re: [請益] 費半成份股全線崩盤 怎麼辦?既然有人提推論,我就講看看訓練端 DSv3 論文中最大亮點,可能也是目前看起來崩盤的主要是 $5.77 million 的訓練成本 和他對比的是喇叭哥曾經說 GPT4 花了超過 $100 million 訓練 未公開的 GPT5 據 WSJ 說,每一次六個月訓練週期需要花超過 $500 million 簡單用 GPT-4 : DSv3 = o1 : DSR1 估計 o1,但應該更多啦,不過低估在這邊不重要![Re: [請益] 費半成份股全線崩盤 怎麼辦? Re: [請益] 費半成份股全線崩盤 怎麼辦?](https://i.imgur.com/ZrjivY5b.jpeg)
67
Re: [新聞] DeepSeek R1來了,追平o1!它現在不但比OpenAI開放,也應該不用那麼久 重點是DS是開源的 現在應該有許多數據中心已經開始實驗DS的演算法 我們先假設DS的創新 是往AGI道路上的王道![Re: [新聞] DeepSeek R1來了,追平o1!它現在不但比OpenAI開放,也 Re: [新聞] DeepSeek R1來了,追平o1!它現在不但比OpenAI開放,也](https://i.imgur.com/OBFxyQJb.png)
47
[討論] Deepseek就之前吹過頭了呀 XD來看看DEEPSEEK之前怎麼吹的 「DeepSeek R1的問世,宣告AI訓練與推理成本大幅縮減,在不到600萬美元的極低投入成本 和2048塊性能遠低於H100與Blackwell的H800芯片條件下,DeepSeek團隊打造出性能堪比Ope nAI o1的開源AI模型,相比之下Anthropic與OpenAI訓練成本高達10億美元。該模型每百萬 個token的查詢成本僅爲0.14美元,而OpenAI的成本爲7.50美元,成本降幅高達驚人的98%。![[討論] Deepseek就之前吹過頭了呀 XD [討論] Deepseek就之前吹過頭了呀 XD](https://i.imgur.com/94BvQMzb.jpg)
29
Re: [討論] OpenAI GPT o1模型OpenAI 最近推出了 GPT-o1,但很多人可能還沒意識到這件事的嚴重性。事實上,OpenAI 已經找到了一條通往 AGI(通用人工智慧)的階梯!這個新模型的關鍵在於,它已經整合了 ToT(思維樹)和 RL(強化學習),在大型語言模型(LLM)領域達到了類似 AlphaGo Zer o 的水準。 很多人以為 LLM 就是個「刷題機器」,記住了大量的資料,所以我們在人類記憶力上輸了![Re: [討論] OpenAI GPT o1模型 Re: [討論] OpenAI GPT o1模型](https://i.ytimg.com/vi/eaAonE58sLU/sddefault.jpg)
14
Re: [閒聊] 文心一言AI繪圖(慎入)文心一言實力不如ChatGPT是理所當然的,微軟投資幾百億美元並且用微軟的雲端訓練整個網 路資料兩年了,到了去年底才終於開花結果 目前這種LLM模型,最重要的就是 資料 算力 和算法,其中基礎的資料是非常重要的,Chat GPT在建立模型的過程跟一般的Ai一樣要機器學習建立模型,而ChatGPT的基礎原理就是由上 一個字生成下一個字,週而復始,其中在訓練的過程還會經過人工挑選優質回答和一些和添![Re: [閒聊] 文心一言AI繪圖(慎入) Re: [閒聊] 文心一言AI繪圖(慎入)](https://i.imgur.com/ST90nzyb.jpg)
21
Re: [問卦] 為什麼AI 這2-3年進步這麼神速?我剛好研究所讀資工領域的。 你應該知道在這次AI大模型震撼世人之前,電腦科學界在紅啥嗎?? 就是Big Data,大數據,資料探勘。 但是因為"算力"不足,所以在十年前,幾乎都是關注於儲存與基礎處理而已。 譬如NoSQL數據庫與一些簡單的資料探勘,那個時候SVM分析歸類資料可火的。![Re: [問卦] 為什麼AI 這2-3年進步這麼神速? Re: [問卦] 為什麼AI 這2-3年進步這麼神速?](https://jochen-hoenicke.de/queue/mempool-20201126-eth.png)
4
Re: [新聞] DeepSeek爆紅引AI「股瘟」!ASML歐股開盤算力愈強,模型愈強~ 就算deepseek 真的不用高階晶片就能訓練出說不弱於openAI o1 的模型, 那未來新的模型在有高階晶片的加持下, AI 不是會發展的更快、更難以想像嗎? AI 發展的更快,商用、消費用的領域愈多,對半導體的需求愈大,4
[問卦] 用H200的算力去強化Deepseek的演算法有中國的Deepseek用低階的H800算力 幹掉美國高階H100海的OpenAI 相對的用高算力H200算力去優化中國Deepseek變成更強的OpenA I有沒搞頭? --![[問卦] 用H200的算力去強化Deepseek的演算法有 [問卦] 用H200的算力去強化Deepseek的演算法有](https://i.imgur.com/tzXrVVOb.jpeg)
2
Re: [新聞] 聯發科AI平台MediaTek DaVinci「達哥」說真的,發哥做這種東西,我是一點都不期待,以我試過各種開源的 LLM 的經驗來看,幾乎都稱不上通用,唯一可以稱的上通用的就 gpt-4 跟 claude3,開源的模型基本上跟垃圾沒兩樣 你說要收費也還好,你架 server 跑開源的模型難道不用花錢?而且 gpt 的收費有個頃向是越來越便宜了,負載平衡都幫你做好了,說真的現在商用解決方案用開源的模型我真的還沒看過,因為真的用起來的感覺跟 gpt-4 差太多了,不是一直跳針就是答非所問 然後 gpt-5 應該也快出來了,gpt -4 大概率又會大降價 這東西的霸主應該還有很長一段時間會是 openai 啦,發哥還是專注在本業卡實在 -----1
Re: [問卦] 有鄉民看過deepseek強在哪了嗎?即便是這樣算力的需求還是向上吧 原本需要計算100次的東西新的模型只需要算1次 但人類肯定能找出100甚至10000倍的計算需求啊 就像當年電腦從1khz 到現在 5ghz且多核心以上 整天喊效能過剩,![Re: [問卦] 有鄉民看過deepseek強在哪了嗎? Re: [問卦] 有鄉民看過deepseek強在哪了嗎?](https://img.youtube.com/vi/JTyyqnAlFrU/mqdefault.jpg)