PTT評價

Re: [情報] 50美元訓練出媲美DeepSeek R1

看板Stock標題Re: [情報] 50美元訓練出媲美DeepSeek R1作者
ImHoluCan
(爺)
時間推噓47 推:48 噓:1 →:155

好的

google 要不要把昨天財報上的說750億設備支出

變成50美元支出?

李飛飛能直接表明蒸餾Google

Google 最好不知道還給你研究所蒸餾

那昨天Google 財報2025還要支出750億呢?

還是明天台灣派人去蒸餾meta Google chatGPT?

看看他們要不要給蒸餾


※ 引述《LimYoHwan》之銘言
: 標題:
: 李飛飛團隊用不到50美元訓練出媲美DeepSeek R1的AI推理模型
: 來源:
: Futu
: 網址:
: https://tinyurl.com/ydrtdbu8
: 內文:
: 李飛飛等斯坦福大學和華盛頓大學研究人員近日以不到50美元的雲計算費用訓練了一個名

: 叫s1的人工智能推理模型。該模型在數學和編碼能力測試中的表現與OpenAI的o1和DeepSe
: ek的R1等尖端推理模型類似。研究人員表示,s1是通過蒸餾法由谷歌推理模型Gemini 2.0
: Flash Thinking Experimental提煉出來的。
: https://i.imgur.com/kFg9GjU.jpeg

: 斯坦福大學以及華盛頓大學的研究團隊展示了一種極低成本的 AI 訓練方法,被稱為 S1: 。
: S1 僅使用 6 美元就能達到 OpenAI o1-preview 級別的推理性能!同時匹敵Deepseek R1

: 推理時間可控:S1 通過簡單的“Wait”機制,控制大模型的思考時間,提高推理能力。: S1 不是 OpenAI o1 或 DeepSeek R1 的直接復刻,但它揭示了在推理時微調 AI 的潛力: ,甚至可以媲美 Reinforcement Learning(強化學習)。
: OpenAI 和 DeepSeek 早期研究發現,AI 在回答問題時“思考得更久”,往往能得出更好

: 的答案。但過去並沒有清楚解釋:如何在推理階段控制 AI 的思考時間?
: S1 的創新點: S1 論文提供了推理時間擴展(Inference Scaling)的具體實現方法:: 核心思想:
: 如何在不改變 AI 訓練過程的情況下,提高 AI 解決複雜問題的能力?
: 方法:讓 AI 在推理時“多想幾秒”,自動檢查自己的答案,從而減少錯誤,提高正確率

: !
: 結果證明,這種方法比 OpenAI o1-preview 還要好!
: 最重要的是:而且只用了 1000 道題! 這比一般 AI 訓練的數據少了 800 倍,但效果仍

: 然很強!
: 此外,該模型可以在筆記本電腦上運行,並且其訓練成本僅為 6 美元。
: 論文下載
: https://arxiv.org/pdf/2501.19393
----
Sent from BePTT on my iPhone 16

--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 223.141.220.124 (臺灣)
PTT 網址

watashino 02/06 18:57看ptt就知道我的獲利都從哪些人手上來的了

eeqqww11223302/06 19:00你有了解模型跟基礎設備的差異嗎…

Mosskappa 02/06 19:01所以就是資本收割籌碼的手段,了解的就不會恐慌反

Mosskappa 02/06 19:01而開心能補貨@@

bonny5566 02/06 19:02大家都等抄答案就好

bonny5566 02/06 19:02努力寫題的是白痴

PureAnSimple02/06 19:03我比較喜歡李冰冰 唯一支持

ImHoluCan 02/06 19:03各位AI大師,要不要組ㄧ隊?

wr 02/06 19:10李飛飛跟google很熟啦 都副總裁了 應該有講好吧

zer0319 02/06 19:13沒有一個頭後面要怎麼蒸餾,還是大家都在原地互相蒸

zer0319 02/06 19:13

duriamon 02/06 19:16這波NV持續吃AI基建的大餅,因為目前AI發展除了大陸

duriamon 02/06 19:16被鎖死,全部都用NV的CUDA,目前仍很難看到取代性。

duriamon 02/06 19:16deep seek跟現在的開源鬼故事,反而是證明搞不好H10

duriamon 02/06 19:160那種5奈米晶片提供的算力及成本CP值就足夠了,怕是

duriamon 02/06 19:16未必會一直需要增加晶體管密度。

zer0319 02/06 19:17而且基建要算力、後續運作、實體終端也都要算力啊,

zer0319 02/06 19:17又不是只有訓練需要

zerro7 02/06 19:18我蒸餾你的蒸餾他的蒸餾 會不會後面變成閉環

duriamon 02/06 19:19並不是單靠蒸餾,是新模型的架構以及訓練方法都開始

duriamon 02/06 19:19跟2023年流行的原始方式不同,早期像GPT3、4根本就

duriamon 02/06 19:19只是鸚鵡的增強版,而且還是很肥很胖要高額飼料錢的

duriamon 02/06 19:19鸚鵡。

wr 02/06 19:21我小時候也看過有人說pentium效能已經夠用了

duriamon 02/06 19:21現在的進展就跟AlphaGo一開始需要人類老師手把手教

duriamon 02/06 19:21後來自己跟自己下棋自己學是類似的情況,整天說蒸餾

duriamon 02/06 19:21的根本搞不清楚狀況,笑死!

PTIMIKE 02/06 19:21http://i.imgur.com/2LHAnz3.jpg

jfw616 02/06 19:24pentium本來就夠用了

jfw616 02/06 19:24win xp再戰20年不是問題

jfw616 02/06 19:24大多數文書處理電腦…那個不是pentium就夠用了

duriamon 02/06 19:24晶體管密度越密價格越貴,除非台積電降價,要不然連

duriamon 02/06 19:24蘋果都吃不消,以為台積電會一直得利的我倒不認為,

duriamon 02/06 19:24因為技術發展也是要看CP值的,這點OpenAI就是不良示

duriamon 02/06 19:24範,你要錢要過頭大家都受不了。

jfw616 02/06 19:25不夠用單純就是某些軟體一直修改

jfw616 02/06 19:25才搞得不夠用

wr 02/06 19:25原本一個房間大的大型主機變成擺在桌上的小方塊 這

wr 02/06 19:25麼強的能力怎麼可能不夠用 難道你會需要比核武還複

wr 02/06 19:25雜的計算嗎?

jfw616 02/06 19:26我就舉例iphone4就好

jfw616 02/06 19:26那時候我拿iphone4上ptt…l

jfw616 02/06 19:26現在拿iphone16上ptt

good5755 02/06 19:26李飛飛曾任google的副總裁 說不定google的模型就是

good5755 02/06 19:26他一手策劃 這叫左手換右手

jfw616 02/06 19:26到底差別在哪裡?

duriamon 02/06 19:26問題是現在靠軟體設計模型的架構跟演算法進步直接讓

duriamon 02/06 19:26需求卡在5奈米,你花大錢搞1-2奈米就變盤子了,呵呵

duriamon 02/06 19:26

Mosskappa 02/06 19:27五代機夠用了不用開發六代了嗎,燒再多錢也要搞啊

Mosskappa 02/06 19:27,軍備競賽就是這樣

Mosskappa 02/06 19:27真正的AI不在語言模型

jfw616 02/06 19:27其實花大錢當盤子沒差…其實以70億人口平均下去

jfw616 02/06 19:27根本不算多

jfw616 02/06 19:28這些科技公司都是以全球70億人口規模去計算的

AudiA4Avant 02/06 19:28沒有所謂的夠用這種事的

duriamon 02/06 19:29我還是要老話一句,人類大腦參數70B功耗60W記憶體4G

duriamon 02/06 19:29B,你一身都只需這樣的配備等級就可以吃喝拉撒生老

duriamon 02/06 19:29病死,現在擺明軟體演算法還有很大的進步空間。

RiverEdge 02/06 19:30蒸餾也要先有大模型 所以大模型要先訓練出來

Mosskappa 02/06 19:30AI結合醫療就是很多絕症攻克的曙光,太多路能走了

Mosskappa 02/06 19:30,沒人會停下腳步

duriamon 02/06 19:30當然硬體功耗也有很大的進步空間,現在實在太耗電,

duriamon 02/06 19:30吃電怪獸不是叫假的!

CYL009 02/06 19:31說得很好啦 算力越高越好 但是現在都有低成本差不多

bonny5566 02/06 19:31樓上 現在就算的比人類快了

CYL009 02/06 19:31性能的AI出來了 還一直堆算力這方向有沒有問題?

wr 02/06 19:32耗電跟發熱問題就是要靠先進製程克服阿...

wr 02/06 19:33更小更快更省電 製程目標也就這樣

duriamon 02/06 19:34算的比人類快但明顯還比人類笨,你算加減乘除數Stra

duriamon 02/06 19:34berry有幾個r比AI還要在行,現在是AI記憶體不止4GB

duriamon 02/06 19:34所以你覺得AI好像比人類聰明,但放到同等級距,你屌

duriamon 02/06 19:34贏AI。

vicklin 02/06 19:35前提那個成本是真的

vicklin 02/06 19:35連馬斯克都不認的東西

duriamon 02/06 19:36所以幻方比OpenAI、微軟跟馬斯克有錢嗎?

tsubasawolfy02/06 19:37AI聖杯拿到前談算力夠都是假的

zer0319 02/06 19:37AGI出來之前,醫療、軍工上面還是大有可為

jiansu 02/06 19:37Google怎樣說都是賺錢的吧 他可以用ai節流 裁員/節

jiansu 02/06 19:37省資源 開源 開發新應用 應該沒有什麼先前支出回

jiansu 02/06 19:37報的問題 開發模型是一定要投入開發 比如搜尋 不投

jiansu 02/06 19:37入開發等別家用ai搶市佔嗎 現在卷模型 下波卷應用

jiansu 02/06 19:37 ai應用市場更大 需要更便宜的硬體更低的成本

AudiA4Avant 02/06 19:38人腦的記憶力很差,不能完全比吧

Brioni 02/06 19:38說不定下季就從750億美金變150億美金

tsubasawolfy02/06 19:38而且你怎麼會認為人很聰明

Brioni 02/06 19:38大公司策略沒那麼靈活

seemoon2000 02/06 19:40Google要做的又不是只到這邊為止

Mosskappa 02/06 19:41要知道中國擺明要跟美國競爭了,川普一定會把AI放

Mosskappa 02/06 19:41在國安層級的高度

zer0319 02/06 19:41投資人就是要看到你花一堆資本支出,設備都可以折

zer0319 02/06 19:41舊攤提,而且現在7巨花的錢都是自己賺的現金流和之

zer0319 02/06 19:41前低利借的錢,根本不怕燒

duriamon 02/06 19:41人類很聰明呀!GPT-4參數量大概有175B的吃電怪獸卻

duriamon 02/06 19:41連9.11跟9.9哪個大都不知道,連草莓英文幾個r都會數

duriamon 02/06 19:41錯。

Mosskappa 02/06 19:42現在有推理模式,可以自我糾正錯誤了

guanting886 02/06 19:43?????

duriamon 02/06 19:43人腦4GB記憶體是究極壓縮的成果,讓人類的功耗只有6

duriamon 02/06 19:430W,卻能有愛因斯坦的性能。

Mosskappa 02/06 19:45看用什麼角度思考,現在AI已經可以解奧賽題目了,

Mosskappa 02/06 19:45比當初轟動世界的gpt3.5強大太多

AudiA4Avant 02/06 19:459.11 跟 9.9的原因是訓練資料當成版本號

duriamon 02/06 19:46我要講的不是吹噓人類很棒,而是AI模型仍有很大的進

duriamon 02/06 19:46步空間包括架構跟演算法都是。

afflic 02/06 19:47解的出數奧題目,解不出9.9跟9.11哪個大

Mosskappa 02/06 19:48AI一開始畫畫不也是畫不出手指嗎

duriamon 02/06 19:49像Altman之前那種Scaling Law教主模樣,拼命堆參數

duriamon 02/06 19:49量,是不會開發出人類這樣精緻又厲害的大腦的。重點

duriamon 02/06 19:49是在可接受的功耗成本下達到人類程度外加相比人類無

duriamon 02/06 19:49限大的記憶體,這才是AI的目標。

Lowpapa 02/06 19:49NV真的完了

banbanzon 02/06 19:51一直蒸餾484以後5毛錢就能訓練?

tsubasawolfy02/06 19:53但愛因斯坦不是全才 比較像現在特化後的

tsubasawolfy02/06 19:54現在他們在搞得根本是想弄出全才

ImHoluCan 02/06 19:54台灣怎麼還不跟上?

Mosskappa 02/06 19:55其實OpenAI 的訓練成本也是一直降低,沒有只是無腦

Mosskappa 02/06 19:55堆算力、參數

Mosskappa 02/06 19:55https://i.imgur.com/UTW8AWU.jpeg

Mosskappa 02/06 19:56這圖是推論,訓練的沒有存

duriamon 02/06 19:56所以才流行MoE呀!你遇到你不會的問題會怎麼做?愛

duriamon 02/06 19:56因斯坦不會修水電他會自己研究到當水電工嗎?還是打

duriamon 02/06 19:56個電話叫人來修?

saisai34 02/06 19:57如果水電工很貴 愛因斯坦會自己研究怎麼修水電@n@a

duriamon 02/06 19:58AI模型很多重大進展都是模擬人類大腦的結果,只是哪

duriamon 02/06 19:58個有效需要try and error,這點華人最擅長了,呵呵

duriamon 02/06 19:58

Mosskappa 02/06 19:59人類是演化幾十萬年的結晶,AI發展不會這麼快。DS

Mosskappa 02/06 19:59執行長也說五年內很難有agi 。但還是要做

ohlong 02/06 19:59急著蒸出能塞進edge跟機器人的model 就是未來五年

ohlong 02/06 19:59的贏家 以為機器人喊喊而已嗎?今年就是前哨站了

Mosskappa 02/06 20:00美國AI這塊也很多是清華北大的學生,或是華裔

duriamon 02/06 20:02所以我才說預估是4-6年可以搞出AGI,NV會一直吃AI基

duriamon 02/06 20:02建大餅,我早就講過了,呵呵!

duriamon 02/06 20:05跟台灣比較有關的是台積電會扮演什麼角色,台積電被

duriamon 02/06 20:05川普點名下勢必要降價跟設廠才能繼續吃餅,要不然光

duriamon 02/06 20:05川普亂搞就夠台積電受的了,萬一真的被我講中5nm就

duriamon 02/06 20:05夠用,台積電的優勢就會慢慢縮小。

ImHoluCan 02/06 20:05台灣政府還不快買AI建設,真的要輸對岸了

ImHoluCan 02/06 20:05台灣還不快買硬體

shorty5566 02/06 20:07好了早就講過了預言家 我只問一句 你賺多少

xkso 02/06 20:09又一堆恐慌仔? 國年笑話還不夠?

duriamon 02/06 20:09關你屁事?deep seek酸建議去等OpenAI股票上市去all

duriamon 02/06 20:09 in呀!笑死!

bj45566 02/06 20:10台灣 AI 早就遠輸給中國了好嗎... AI 現在就是美中

bj45566 02/06 20:10爭霸局面

kilhi 02/06 20:10中國不能用google

ohlong 02/06 20:11台灣只能玩地方包圍中央 edge晶片跟硬體至少我們系

ohlong 02/06 20:11統廠還是有優勢

ntr203 02/06 20:11台灣哪有那麼多閒錢自己研發

breathair 02/06 20:12硬體邊際效應下降之後,現在的AI競賽

breathair 02/06 20:12已經來到算法優化了。硬體當然也需要,

breathair 02/06 20:12但是溢價搶買的時光已經過去了,硬體越

breathair 02/06 20:12等越便宜,你在等硬體的時候,優化算法

breathair 02/06 20:12才是王道了

breathair 02/06 20:13接下來應用面白家爭鳴,QQQ接下來應

breathair 02/06 20:13該能跑贏現在貴森森的NV

ohlong 02/06 20:13ASIC至少我們拿到的製程一定贏對面

duriamon 02/06 20:13也不是沒有錢,就錢被拿去養動物了吧?動物園營收會

duriamon 02/06 20:13看漲嗎?呵呵!

shorty5566 02/06 20:17“我早就說過了!我早就講過了!早就告訴你們了”

shorty5566 02/06 20:17真好奇這些人在股市賺多少 科科科

duriamon 02/06 20:18COVID時我講拿台股賺的去美股繼續賺,我還真有說過

duriamon 02/06 20:18,呵呵!

dsrte 02/06 20:28以前用google時,有在限制只能搜尋甚麼嗎? 甚麼都找

stlinman 02/06 20:28不認識李飛飛Google很難嗎? 看新聞不會自己Google查

patrol 02/06 20:28連中吹都不敢買陸股,哥也早就說過了

stlinman 02/06 20:28證唷? 自己陰謀論瞎猜!

dsrte 02/06 20:28才有市場,ai模型問甚麼都能答才好用

jo4 02/06 21:10事實鏟子只會越賣越貴

bj45566 02/06 21:18台灣的 AI 人才十個有九個半去美國了,要怎麼發展?

ImHoluCan 02/06 21:57台灣人真的搞笑,台積電才是讓台灣人才都死掉的地

ImHoluCan 02/06 21:57

mccloud 02/06 22:48喔 然後?

mccloud 02/06 22:49適合走芬蘭模式 眾多新創?

mccloud 02/06 22:49還不是像htc一樣 稍有起色就被買走

kobebrian 02/06 23:07台積電讓台灣人才死掉 對啦 張忠謀一定是想殘害台

kobebrian 02/06 23:07灣才說台灣人只有代工才能贏別人

jamesho8743 02/07 10:31duri就是在瞎扯 似懂非懂 AI的目標是什麼? 可接受

jamesho8743 02/07 10:31的功耗成本下達到人類的程度而已? 那只是低階的客

jamesho8743 02/07 10:31服或自駕應用而已 請問你alphago 的目標是什麼? 不

jamesho8743 02/07 10:31就是下出神之一手完全打敗人類? 超級智慧才是AI的

jamesho8743 02/07 10:31終極目標 還有你知不知道湧現? 現在的LLM模型會強

jamesho8743 02/07 10:31是因為把參數量拉高到幾十B幾百B之後突然就發現很

jamesho8743 02/07 10:31厲害了 這也是大家之前為什麼要搶購硬體的原因 如

jamesho8743 02/07 10:31果你演算法不變光硬體夠強訓練個幾T參數的模型搞不

jamesho8743 02/07 10:31好變得超級強 認為不需堆算力的人就純粹是個可笑

jamesho8743 02/07 10:31堆算力跟算法改進根本就兩件分開的事

jamesho8743 02/07 10:42這樣說吧 如果你只是想省錢 只是想能打敗人類就好

jamesho8743 02/07 10:42那3070+katago就已經夠了 如果你是想拿第一打敗對

jamesho8743 02/07 10:42手跟別的AI比賽那就永遠都不夠

duriamon 02/07 16:33人類70B就能湧現了啦!你才搞不清楚狀況,人類輸AI

duriamon 02/07 16:33不是缺乏智慧是缺乏記憶體,這是生物限制因為能耗不

duriamon 02/07 16:33能儲存一堆跟生存無關的事物,實際上目前AI在邏輯推

duriamon 02/07 16:33理就是屌輸人類,上次那個菲爾茲數學獎得主出題的Fr

duriamon 02/07 16:33ontierMath測試集,OpenAI還要靠作弊才25%,笑死!

duriamon 02/07 16:39你標準就是半桶水才在那邊吹湧現,做到動輒好幾百B

duriamon 02/07 16:39才湧現然後說AI好棒棒?舉那個AlphaGo更好笑,在Dee

duriamon 02/07 16:39pmind AlphaGo之前就是因為只會堆積算力想靠算棋來

duriamon 02/07 16:39贏人類,結果老是被人類棋手打敗,後來改往人類的模

duriamon 02/07 16:39糊推理去運作才產生AlphGo才超越人類的。現在AI模型

duriamon 02/07 16:39就是還需要在演算法跟架構修正讓它能模擬人類大腦運

duriamon 02/07 16:39作,好嗎?