Re: [閒聊] DeepSeek是不是真的很強?
根據 openrouter.ai
速度體感就 4080 vs 1060
openai o3 mini 一秒輸出1280個字/令牌(tokens)
deepseek r1 一秒輸出 43個字/令牌(tokens)
DeepSeek R1 8個供應商速度都不快,
也許是模型天生限制?
https://openrouter.ai/deepseek/deepseek-r1
推理能力和價格,openai好像故意調成一樣
o3 mini medium 單次呼叫 4.4鎂/1M tokens
批次呼叫 2.2鎂/1M tokens
deepseek r1 單次呼叫 2.2鎂/1M tokens
心得:
感謝 deepseek 讓大家有便宜的chatgpt用
-
PS: 查資訊推薦日系 felo.ai
寫程式才問 o3 mini / R1
因為 reasoning tokens (進.度.列) 要收錢
看帳單真的沒便宜多少
--
openai之前不是在靠腰200鎂訂閱費還虧錢嗎?api現在還
能降價代表之前在說謊吧
就大改版+蒸餾降價ㄅ 以前搞好幾次了 4 -> 4o -> 4o mini o1 -> o1 mini o3 -> o3 mini
r1就之前號稱的應該沒這麼慢才是
o3-mini是真的反應很快就是
是真的感謝deepseek讓chatgpt降價
o3-mini coding能力有變強
以前寫的code連自己都看不懂 今天叫o3-mini改,一次就改對 www
※ 編輯: kinda (122.116.34.251 臺灣), 02/01/2025 21:55:26賺少就是在虧.jpg 這種長期燒錢的項目不會有人嫌錢多
吧
OpenAI是真的很燒錢啊,融資的錢燒很快
他們買很多老黃卡
DeepSeek肯定也是大量燒錢
Anthropic 倒是都靜悄悄,不知道在幹嘛
目前也跟之前訪談一樣,中國同業也是大砍一刀,現在輪到
外面了
到現在都還是3.5sonnet 有一段時間還一直讓免費仔用haiku
openai上了最新硬體,其他供應商perplexity.ai還在用H100
個人體感sonnet比R1好用,但可能是因為我寫objc&swift
不過目前來看除了免費以外 能力確實有限
http://i.imgur.com/rN7Pv24.jpg 我用其他AI是抓得到
文字的
現在寫code最好用的就是 sonnet
我也有看到GB200的進貨文www
sonnet的web版超厲害
OpenAI的Canvas還是鳥鳥的
跟改版沒關係啊,他們的說法就是整體成本跟收入比不夠
阿,改版的模型零成本嗎?怎麼講的像突然成本下降很多
o1-mini之前5.5鎂、o3-mini下一代4.4鎂 + 性能換代變強
降價20%算在微調... 跟說謊有什麼關係
o3-mini 的 API 不是不管 low/medium/high 都是 $1.1/$4.4
嗎,跟 o1 一樣是透過 reasoning_effort 這個請求參數調
整思考過程的程度決定能力高低的
另外 R1 不只輸出速度慢,思考過程也比 o1-mini 長,現在
只適合玩玩吧
賠錢了還降價,不是說謊就是嫌錢太多
low/medium/high會影響chain of thought的長度
進.度.列越長,越貴~ cot算錢真的點點點
9
首Po我讓他續寫手塚火鳥的未完成篇章 也就是近現代篇 結果還滿有模有樣 優化一下就是三個阿道夫等級作品 以後是不是人人都能創作了? ------------------------- 手塚治虫未完成的《火之鳥·近現代篇》被普遍认为是他最神秘的遺憾。根據手塚工作室爆
結果今天就被踢爆是中國大外宣了 研究機構:DeepSeek硬體GPU支出逾160億台幣 SemiAnalysis指出,中國對沖基金幻方量化(High-Flyer)在2023年5月成立「深度求索」(DeepSeek)以推動AI技術研發,在此之前,幻方量化於2021年,也就是任何出口管制生效前,投資購買了1萬顆輝達(Nvidia)A100 GPU。 報告指出,該公司在GPU的投資上花費超過5億美元。10
話說 我讓deepseek寫些色色的東西啊(讓他幫我寫些色色遊戲設定) 他現在大約寫完後會延遲十秒才收回去(如果他願意寫的話) 這是故意留給我時間讓我趕快複製貼上嗎 怎麼這麼貼心6
老哥 雖然中國真的很常唬爛 但也不能沒搞清楚就亂吐槽 反而自曝無知= = AI模型只要訓練一次(花幾天~幾個月)就能一直用3
是這樣的 美國人做事比較喜歡用正攻法 他們就很要求任何技術都要「科學」 你這麼做,你要拿出證據、拿出理論依據 不只要證明他真的會更好,還要說明他為什麼會更好40
這串一堆外行 首先 DeepSeek模型特點是 1. 訓練成本低 2. 推理成本低 先說訓練成本低11
假如以網路遊戲來類比,輝達就是遊戲的開發商與營運,其他開發AI的科技巨頭就是遊戲玩家 DeepSeek 則是一個發現了快速練等技巧的玩家。原本幾百小時才能練滿一個帳號,現在DeepSeek 找出了幾十個小時就能練滿的方法。 因為是快速練等,所以裝備可能還是跟不上那些扎實練功的科技巨頭玩家。但是可以縮減大量的遊戲時數,所以其他玩家也紛紛跟進,畢竟練滿角色可以少花幾張點數卡,看起來遊戲公司可能會陷入經營危機。 不過由於遊戲的內容實在太豐富,大家都想多練幾個帳號來玩,長久來看玩家們還是會繼續買點數卡挹注遊戲公司營收。 以現實人物來比喻的話,輝達是經營天堂的遊戲橘子,DeepSeek是找出一堆遊戲秘技的四叉貓11
: : 稍微說明一下好了 如果要偷 偷的方法就是花錢用openai 的api 然後用他產生qa pairs : 來做測試資料集 : : 看起來跟正常使用差不多 真的沒那麼好抓 也跟傳統意義上的資安沒有關係1
我的理解是 原本一份專業的工作只有研究生以上的人能處理 後來產業升級後變成高職就能身任 雖然還是可以繼續雇研究生 但是慣老闆愛省錢的結果肯定誰便宜用誰69
說回來 感覺很多人很氣訓練用別人資源 但是感覺又對openAI沒反應 我覺得這就很奇怪 因為OpenAI最知名的一個點
爆
[情報] 微軟官方:DeepSeek R1 現已在 Azure 及 G標題: DeepSeek R1 is now available on Azure AI Foundry and GitHub DeepSeek R1 現已在 Azure AI Foundry 和 GitHub 上提供。 來源: 微軟 Azure 官方 Blog68
Re: [情報] Perplexity CEO:實驗性整合DeepSeek R1模更新: 年初一大新聞 美國上市公司(NET)、CDN市佔80%的 Cloudflare 宣佈引入 Deepseek R1 模型至他們的 serverless GPUs 產品 Workers AI 中57
[情報] Perplexity CEO:實驗性整合DeepSeek R1模標題: Perplexity CEO:實驗性整合DeepSeek R1模型 來源: Perplexity CEO Aravind Srinivas 網址:47
[討論] Deepseek就之前吹過頭了呀 XD來看看DEEPSEEK之前怎麼吹的 「DeepSeek R1的問世,宣告AI訓練與推理成本大幅縮減,在不到600萬美元的極低投入成本 和2048塊性能遠低於H100與Blackwell的H800芯片條件下,DeepSeek團隊打造出性能堪比Ope nAI o1的開源AI模型,相比之下Anthropic與OpenAI訓練成本高達10億美元。該模型每百萬 個token的查詢成本僅爲0.14美元,而OpenAI的成本爲7.50美元,成本降幅高達驚人的98%。35
[問卦] DeepSeek便宜到哭,台灣人卻只會跳針?幹,我真的快笑死 全世界都在討論DeepSeek 數學、代碼、邏輯推理全面屌打ChatGPT 價格還便宜到像在清倉大拍賣 結果台灣某群人只會在那邊:「啊它不能談政治,垃圾啦!」15
[情報] OpenAI博士級chatgpt訂價每月2000鎂OpenAI CFO接受採訪時表示 他們將推出可以執行各項複雜任務的AI Agent 為公司做出有價值貢獻 其定價模式將轉向基於產品帶來的價值8
Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據openai會崩潰完全不意外 會員想使用chatgpt最新版本每個月要花200美金 結果deepseek最新版本r1直接免費讓大家用 導致一大堆輕度使用者退訂chatgpt 以後gpt再放出任何更新更屌的新版本也沒用了9
[問卦] OpenAI推出O3多久會被中國破解OpenAI表示已經拿到輝達最新顯卡Blackwell 以及要推出O3模型了 O3效能遠遠大於O1跟DeepSeek 感覺美國已經沒救了 做多少都沒用 中國都會以10分之1的成本復現- 我先講我非AI專業 但這件事情基本就是鬼扯 甚麼叫做利用O1蒸餾出R1 你要用API抓多少資訊量跟TOKEN才做得出來 然後這件事情OPENAI還會不知道?
1
[問卦] Deepseek是刻意對美國的精準打擊吧?近期看了些Deepseek的討論 很多人提到了Deepseek母公司是風投、Deepseek只是子項目等等 我總感覺這只是故事 Deepseek R1釋出的時間點跟方式太巧了 剛好壓在川普上任後、OpenAI的O3發布前