Re: [新聞] Google向Anthropic供應100萬AI晶片 價值
※ 引述《Carloslin (Carlos)》之銘言:
: 原文標題:
: Google向Anthropic供應100萬AI晶片 價值數百億美元
: 原文連結:
: https://www.stheadline.com/realtime-finance/3511525/
: 發布時間:14:56 2025-10-24
: 記者署名:NA
: 原文內容:
: Alphabet旗下Google周四宣佈向AI初創公司Anthropic提供高達100萬顆專用AI晶片,交易: 價值數百億美元,進一步深化Google與Anthropic之間的合作關係。
: 料2026年部署 運算容量逾1吉瓦
: Google表示,提供的客製化晶片為「張量處理單元」(TPU),專為加速機器學習工作負: 載而設計,預計於2026年部署,屆時將上線超過1吉瓦的運算容量,為至今AI硬件軍備競: 賽中規模最大的承諾之一。
: 透過接入Google的TPU,Anthropic可以使用英偉達以外最先進的晶片基礎設施之一,從而: 降低對稀缺且昂貴GPU的依賴。Anthropic行政總裁Krishna Rao表示,此次擴展將有助公: 司持續擴大所需的運算能力。
: 心得/評論:
: 原本Google自己用的TPU居然開始供應給第三方還拿到大單,未來專用TPU應該會慢慢分食: 老黃的大餅,但無論如何還是都要找GG代工。
這消息已經傳好幾個月了,
官方公布證實也是這禮拜初的時候,
我一直以為板上不會有人討論這麼冷門的消息,
讓我們繼續關心OpenAI
不過 以股板投資的角度來看,
很簡單, 就是買GG 跟 QQQ,
當然我不是嘴砲亂喊單,
我自己早就三倍槓桿歐印:
https://imgur.com/7tsGWiD
原因很簡單,
不論是TPU還是老黃,
最後一定是找GG代工,
而且TPU 找GG代工的機率比老黃還高,
因為TPU 100% 只會找GG,
TPU沒人力也沒資源去找2nd source晶圓代工廠,
但是老黃還有Intel 代工的選擇,
事實上老黃也已經給Intel 18A單了,
所以TPU的新聞對GG 是好事
選擇QQQ的原因是確保自己能跟上這波AI泡沫的浪潮,
不需要去賭哪邊是贏家,
只要記得2027年或是之後跑
我要說的就到這裡為止,
下面說的會得罪太多人,
我也不敢再多說
稍微透露一點,
現在每家公司都有算力資源缺乏的問題,
除了谷歌例外,
算力資源缺乏有很多原因,
多說就幾乎把所有人得罪光,
反正你只要知道,
只有谷歌沒有算力資源的問題,
TPU 量大管飽, 便宜, 幾乎沒成本,
谷歌自己又能架設資料中心,
所以算力對谷歌是幾乎沒成本也沒限制
所以說,
如果被算力資源缺乏問題逼急的公司,
"理論上"應該會找谷歌的TPU算力資源,
"理論上"不應該只有一家Anthropic,
還是說大家偷偷在用TPU但是不敢說,
怕被掌握算力掌握話語權的那群人教訓,
就像十年前谷歌堅持發展TPU,
被主流媒體評價為沒有AI競爭力,
要求谷歌放棄TPU 才算是有AI競爭力,
這些事情我真的不知道,
我唯一知道的是谷歌是這世界上唯一不缺算力的公司
很多時候你堅持走自己覺得對的路,
但是一路上的雜音跟謾罵會很多,
有時候甚至會懷疑自己,
TPU就是個例子,
投資股票跟人生也是個例子,
你看我這五年來在板上大喊存骨TQQQ 一直被質疑,
但是我覺得正確的路就是會堅定走下去
--
goog破千
也開始賣鏟子了嗎
謝謝你鏟子超人
推
又被LDPC 曬滿臉了 嗚嗚嗚嗚嗚
謝謝,不知有無目標價
不太正確吧!Google 的cloud computing 需要nv的gp
u,也要自己的tpu。兩個的服務有差異。
谷歌tpu跟nv gpu都有, 對外服務還是要提供nv gpu選項, 但是現在全世界nv gpu算力資源缺乏, 對內服務是以tpu為主, 大部分都適用tpu, 除非是tpu沒有支援的功能, 才會改用gpu, 但是那種情況很少
會得罪誰
GG狗老黃都買
估狗老黃都買兩不誤
懶人包 買gg
tpu跟nv語言不同吧 不是買不到nv就用tpu頂一下
頂層的語言是一樣的, 現在沒人直接用CUDA寫模型, 那是十年前的事情, 現在頂層的語言都是用Pytorch (60%-70%的模型使用率) + Tensorflow, 所以對模型開發者以及大部分開發者而言, 完全分辨不出tpu 跟 nv的差別 當然tpu 跟nv的應用還是有差, tpu是特定功能的應用, nv的通用, 所以大部分情況是能用tpu就用tpu, 要是tpu沒有的功能, 再用gpu, 但是那種情況很少
坐等GOOG上千
黃BG? nvda avgo(博通) googl
加油唷 看起來兩倍谷歌也可以試試
googl幾乎穩吃ai後續落地的應用,這塊應該最肥
大家記得,tq王會類反串,但其對帳單不會,別買錯了
ggll
為什麼tq買goog不買googl?googl有投票權啊
之前不是說deekseek用ptx硬幹嗎 還是有人會用比較
底層的語言做事提高效率的
幾股的投票權沒什麼影響力……
今天你用python也是c或c++在跑 有什麼差?
會覺得python比C++慢的 肯定是食古不化的主管
GGLL NVDL TSMX都可以贏嗎
你槓桿買那麼多喔
硬體移植我持保留態度,backend優化很花時間,也許
G社人很多可以搞,但n社的社群比tpu 大吧
你說的就是免費gemini可以讓人一直問的原因嗎?
Python 就是比c++慢幾個數量級,不然幹嘛要開路讓
你接c++
信仰儲值
歐噴醬收的月費,不夠付算力與營運的成本,如果財
報攤開,會很有趣
Google不只有錢,而且早就布局算力供應十年之久,搞
TPU也搞GCP,也難怪Altman直接發瘋簽約搶算力
GOOGLE王
Google連手機Pixel也堅定搞TPU(即使效能被笑能),
不過Google給AI的算力真的大方,幾乎免費吃到飽。
我也想買GOOG
大家突然發現google算力便宜了嗎
推推,g偉大
我比較好奇 你用高階語言寫程式 現在到底層執行時
tpu跟nv gpu的效能已經一致了嗎?
不過算力成本也還要考量買的電費
python是直譯式語言 跟C++這種編譯過的速度不能比
吧 扣除有些library 會留python的殼 內部其實用其
他語言實做的特例
最近我用python+rtx 3060+cuda 速度已經比單純C++快
一般人好像買不到tpu來玩玩
可惜
還來的及all in googl咪
聽完科技浪也是疑惑說tpu怎麼沒什麼熱度
不缺算力 然後veo3一天只能升3部片….呃….
這應該就是我說的特例吧 XD 你確定你call 的python
library裡真的是用python實做?
所以狗是在藏算力嗎?南北算蟲大串連
全世界都搶不過open ai 那麼走goog tpu 說不定另一
條通往藍海航道
google增加自家tpu的邊際成本跟買外部的NV晶片低太
多,成本效益非常明顯,這也是各家當初推自家ASIC的
故事內容之一,G早做很久
謝TQQQ王 長持真的考驗心態
Google需要NV是因為有的客人就只要NV的算力
56樓:若python串cpu,那的確是cpu執行python。不過
現在是在講串TPU/GPU,應該就不是TPU/GPU執行python
...
謝謝分享
如果TPU能變成平替 那NVDA那裡有護城河可言?雖然我
現在是QQQ教的ㄧ員
爸爸錢好多喔 救救兒子吧
前端python, 後端c/c++, 因為要接到各家backend
為了避免平替,我覺得nv應該要買modular,因為modu
lar自幹的stack看起來很有希望,無痛轉amd gpu
請問一下,為什麼是2027年?
狗哥的TPU很猛 是真的很猛
我2022年初買GOOGL股價2600多 後來1拆20 如果又破千
這成長力道非常恐怖
有適配cuda不是問題 軟體可以改 但這個是時間和成
本 tpu搞很久算很成熟 google訓練和推理規模都很大
之前就沒外賣 不然有可能比amd這個平台還好用 nv
強是一般開發根本不會去動底層 大陸一直提升硬體效
率就是被搞不得不做 但有些公司還是算法為主
教主:
GOOG不一定會賣算力給競爭對手啊,就算願意,openA
I 也不見得G社好,選NV還是比較好
但我手中的GSU基本沒賣,放到現在也漲了一倍左右
為什麼你GOOG gain%這麼低?
因為我是在反壟斷判決確定之後才歐印的, 在那之前, 我的持股是只有QQQ+TQQQ, 判決之後, 我把QQQ全賣掉跟部份TQQQ轉成GOOG+GGLL
心臟真大顆 跪了
ggll也買太多了,拿來當gg嗎?
收到 準備把手上FBL賣掉換GGLL= =
GOOG已經在賣算力給OpenAI了..
對GOOG來說,把風險全壓在自己的AI上面沒有好處
如果Gemini最後換不到錢,GCP可以成長沒什麼不好的
然後NV跟GOOG兩者不全是競爭關係,GOOG授權TPU只是
代表ASIC的確有可能成功,GPGPU的巨大優勢並沒有被
改變,如果你的公司沒有大量的軟體人才可以開發,直
接用CUDA還是最簡單的成功方式
aibu 標的如何,3q王有想法嗎?我放好久了 ~~
你這GGLL應該是在trading window關了後才買的吧
很調皮喔
沒有, 對帳單證據,
https://imgur.com/XsqORpZ我是在反壟斷案判決出來之後, 確定沒有任何威脅之後才歐印, 把QQQ 跟一些 TQQQ 歐印換成GGLL, 買9/19在最高點, 有些還買到$72, 我都不知道是怎麼買這種價格的, 官方交易紀錄最高只有到$69-$70 GOOG一樣是在判決出來之後歐印, 在判決出來之前, 我是每天買一股, 那時候我不敢歐印, 雖然之後谷歌AI佔優勢, 但是當時內部評估是會被拆分賤賣給OpenAI等公司 對帳單證明:
https://imgur.com/JVGqdOQhttps://imgur.com/RFHYmc2
※ 編輯: waitrop (76.103.225.6 美國), 10/26/2025 08:09:09 ※ 編輯: waitrop (76.103.225.6 美國), 10/26/2025 08:12:08
有單給推
TPU對狗哥來說 有點像當初輝達要做CUDA
前期肯定要消耗大量成本 中期能否回收成本有疑慮
CUDA是已經賺翻 從本文來看TPU中期拿回成本穩了
從現在來估計未來狗哥應該穩賺 當然還要看能賺多少
文中有些對於當初阻擋TPU是陰謀的感覺
我覺得沒有陰謀 純粹就是財報諸葛亮效應
就是大公司重大決策只要會影響財報的就有諸葛亮效應
只要有機會那些平凡人會直接變身諸葛亮 優化財報
就像台積電擴廠只要有些波折 財報諸葛亮就會出動
就是當初的蔡力行也直接變身搞到張忠謀回鍋
然後我懷疑弄走梁孟松的可能就是蔡力行
不過 梁孟松沒說過蔡力行都說台積電
好奇goog tpu 和耐能宣稱npu始祖差在哪
我不知道npu始祖是誰, 但是我知道我是第一批研發並且產品化npu在手機上的研發團隊
※ 編輯: waitrop (76.103.225.6 美國), 10/27/2025 04:52:21爆
Re: [新聞] 學家:美股AI熱潮像是2000年網際網路泡沫尼不懂就會覺得差不多 這"幾天"爆炒AI話題原因很簡單 老黃財報這一季營收預估比華爾街高50%左右 也比上一季高50%左右 差不多94老黃AI那塊營收翻倍![Re: [新聞] 學家:美股AI熱潮像是2000年網際網路泡沫 Re: [新聞] 學家:美股AI熱潮像是2000年網際網路泡沫](https://i.imgur.com/rx61Atmb.png)
94
Re: [新聞] 輝達傳再推中國特供AI晶片 最快「這時」老黃應該是有機會能繼續用黃家刀法 用高階價錢賣低階產物給中國 從美國的最大化利益角度來想 美國也會希望老黃賣次級的晶片給中國 這樣就某種程度能最大化阻滯中國發展 和弱化中國科技樹發展 比方說 中國最近的華為昇腾910B AI晶片號稱對標A100 已經賣給百度作為AI開發用途 如果說中國目前上面自製化晶片算力是10 那A100是30 H100是50 那老黃只要賣給中國晶片![Re: [新聞] 輝達傳再推中國特供AI晶片 最快「這時」 Re: [新聞] 輝達傳再推中國特供AI晶片 最快「這時」](https://i.imgur.com/ehbrItPb.jpg)
51
[分享] Layout工程師很危險,Google自動晶片設計Layout工程師很危險,Google自動晶片設計AlphaChip問世 2020 年,Google發表了預印本論文《Chip Placement with Deep Reinforcement Learning》,介紹了其設計晶片佈局的新型強化學習方法。後來在2021 年,Google又發 表在Nature 上並開源了出來。30
[閒聊] 關於TPU內胎想請教一下板上有人有使用TPU內胎的經驗嗎? 我最近在想把休閒騎車的從純粹柏油路調整一下到山林裏面。 在山林裡面我就不太想爆胎,(其實平地上我也不想爆胎啦) 總感覺在旁邊都沒有人只有樹的地方補胎挺怪的 無內胎是一個選擇,但我稍微看了一下覺得維護起來好像比較麻煩。![[閒聊] 關於TPU內胎 [閒聊] 關於TPU內胎](https://i.imgur.com/pBiFmqHb.jpg)
21
Re: [新聞] 三星代工 谷歌Tensor G2晶片表現不盡人意阿這.. 只能由購買兩代的人來體感確認了 ... Tensor G2 確認為 5nm 處理器,而不是預期的 4nm Google Tensor G2 is a 5nm chip, despite what the internet might say 一般大家都認為會用上最新的技術開發新一代 不過google顯然不覺得![Re: [新聞] 三星代工 谷歌Tensor G2晶片表現不盡人意 Re: [新聞] 三星代工 谷歌Tensor G2晶片表現不盡人意](https://i.imgur.com/4kOaDtGb.png)
19
Re: [新聞] 輝達H100晶片紓壓了 訂單大戶開始轉售其實大家說老黃 CUDA 的護城河之深,不是沒理由的。 RTX 系列本身就內建 Tensor core,可以針對machine learning 做加速運算,例如 G 家的 Tensorflow 和 Meta 的Pytorch 都可以利用到 CUDA-X 函式庫加速在訓練和推理的運算 有人說 Tensorflow 利用 TPU 可以繞過 CUDA,不過目前最新![Re: [新聞] 輝達H100晶片紓壓了 訂單大戶開始轉售 Re: [新聞] 輝達H100晶片紓壓了 訂單大戶開始轉售](https://upload.cc/i1/2024/03/03/j2m8Iz.jpg)
18
Re: [新聞] 馬斯克與甲骨文創辦人「拜託黃仁勳」:多週末花點時間看了下 老黃跟高盛那場對談細節 這整篇演講對談就是在展示老黃的遠景和野心 通用計算->加速計算時代 資料數據中心全面翻新企圖 參照文章![Re: [新聞] 馬斯克與甲骨文創辦人「拜託黃仁勳」:多 Re: [新聞] 馬斯克與甲骨文創辦人「拜託黃仁勳」:多](https://img.youtube.com/vi/UczALD7ZZDU/mqdefault.jpg)
9
Re: [新聞] 超微AI晶片將追趕輝達好像大家都忘記 Google 也有 AI晶片 Google TPU 我看節目 很多分析師說到 AI 晶片都只提到 AMD,Nvidia 而且還大辣辣的說 AI 晶片只有這兩家 我真的笑死了![Re: [新聞] 超微AI晶片將追趕輝達 Re: [新聞] 超微AI晶片將追趕輝達](https://i.imgur.com/9qRvpjCb.jpg)
4
Re: [新聞] 減少依賴輝達 傳微軟將推自研首款AI晶片上次台裔Google科學家紀懷新Ed H. Chi (L9)來台灣接受訪問的時候就有談到這個: 今天記者會上,紀懷新也解密,其實 Google 在訓練 AI 時,100% 使用的都是自家的 TPU,「Google 很早就在 AI 領域投入了大量資源,包括硬體,包括裡頭的數學、算法等 ,這些都是我們的強項。」 Google 2023 最新的論文![Re: [新聞] 減少依賴輝達 傳微軟將推自研首款AI晶片 Re: [新聞] 減少依賴輝達 傳微軟將推自研首款AI晶片](https://bucket-img.tnlmedia.com/cabinet/2023/08/4ce91451-0f44-4e55-9253-edd20a65dcff.jpg?w=1200&h=630&fit=crop&auto=compress)
3
Re: [新聞] 馬斯克:2040年人形機器人將達100億台原PO 也不用太氣啦 這個本來就開放討論 互相思考 不過我覺得你在留言提到的很有思考性 包含中美關係在牽制中慢慢升級以及中國人至美國買房買地的管制… 回到原本的思考點 怕中國技術自己偷偷訓練跟國安的問題 只能用在美製的高科技產品、
![Re: [新聞] Google向Anthropic供應100萬AI晶片 價值 Re: [新聞] Google向Anthropic供應100萬AI晶片 價值](https://storage.googleapis.com/thunderbit-public-resources/thunderbit_image.png)
![[情報] 00631L 預估分割17倍決議表決 [情報] 00631L 預估分割17倍決議表決](https://imgpoi.com/i/6GBH1D.jpg)