Re: [新聞] 雷蒙多態度髮夾彎 允輝達向中國出售AI晶
這是最近幾天TSLA那邊AI晶片訊息
https://reurl.cc/bl1xdd
現在看來就是NVDA+AMD會繼續有機會在AI晶片市場拉一波 最近另外一個比較紅的新聞是Mistral AI小公司開發的LLM模型吸引不少人 而Misral AI是用CoreWeave租借算力
開發出來的大模型 這些小公司能靠租算力媲美大公司發展的模型
新聞大概都會讓老黃繼續開心賣他鏟子
※ 引述《qwe22992168 (蛋疼)》之銘言:
: 原文標題:雷蒙多態度髮夾彎 允輝達向中國出售AI晶片
: 原文連結:https://www.ctee.com.tw/news/20231212700408-430701
: 發布時間:2023.12.12 08:26
: 記者署名:工商時報 呂佳恩
: 原文內容:
: 美國商務部長雷蒙多(Gina Raimondo)11日表示,美國正在研究輝達為中國市場開發的: 產品,並於早前與輝達執行長黃仁勳就晶片出口進行討論,她指出,輝達「能夠、將會且: 應當」向中國出售人工智慧(AI)晶片。
: 美國拜登政府於今年10月擴大晶片管制,劍指AI算力領域,雷蒙多更於本月稍早點名輝達: ,直言該公司透過推出降規版晶片特別供應中國,她強調,企業不應為短期收入犧牲國安: ,並警告稱,若再次繞道降規,商務部將會立即出手管控。
: 不過,雷蒙多11日接受媒體訪問時態度明顯軟化許多,她透露商務部將檢查輝達為中國市: 場開發的晶片,以確保其不會違反出口管制,並指出該部定期與輝達溝通,該公司是很好: 的合作夥伴,雙方共享資訊。
: 雷蒙多表示,由於多數AI晶片皆用於商業用途,輝達「能夠、將會且應當」向中國AI晶片: ,不過不會讓該公司出售其最精密、處理能力最高的AI晶片,以避免中國藉此訓練先進AI: 模型。
: 雷蒙多補充指出,她一周前曾與黃仁勳溝通,黃仁勳的態度相當明確,即該公司無意違反: 拜登政府的規則,願與政府合作,並希望在向中國銷售AI晶片時做「正確的事」。
: 針對雷蒙多的最新言論,輝達表示,目前正在與美國政府合作,在遵循規範的同時,致力: 於為全球客戶提供資料中心解決方案。
: 至於商務部是否會對輝達的新晶片祭出任何限制,該部門拒絕發表評論,但重申會不斷更: 新規則,以應對瞬息萬變的威脅。
: 另外,雷蒙多再次呼籲國會通過立法,以解決TikTok等外國應用程式對國家安全構成的潛: 在威脅,並強調受到規範的不應只有TikTok,因此更需要由法律途徑對此進行管制。
: 心得/評論:
: 未來黃勳仁可以向中國出售AI晶片了
: 難怪NVIDIA的股票又在漲了
: 中國又贏了 又能做AI暴打美帝了
: 美帝又輸了 為了賺錢一樣跪下去
: 用美帝的技術來暴打美帝 吃你的飯 砸你的鍋 嘻
: 不愧是制度自信 道路自信 超英趕美 彎道超車
--
我倒覺得Mistral會把算力需求打下去
1. 他主打7B~10B model 強調小模型也可以達標
2. 他的MOE就表明 可以用8x7B 去Complete 40B
7B 也要接近千顆gpu耶。8,個agent就要上萬啊
?? ?你在講啥 一個H100就可以train GPT-3 175B mode
還有scaling law 算力只會要更多啊
h100 80gb 單顆train 100B以上模型?
llama 7b 是82432 hours 80gb A100單顆
h100大概是a100兩倍 用千顆train 也要三天才能train
完整一次
7b現在最陽春做法training也要百顆啊
還沒說100b模型用1byte 方式load 要100gb ram 也超
過單顆h100 80gb 記憶體容量
我的意思是time/money trade-off
1024 A100 train GPT3 需要34d 但我也可以128 340d
我看7B model是不用一天就跑完.. 跑個2week也沒差
反正到最後都是卡在data quality
有差啊。你沒此調整一個參數 learing rate 或schedu
le 就兩個裡拜看結果
而且現在fine-tune都用LORA 記憶體可以大砍
只有做foundation model的要整個model
現在做foundation model也才那幾家..
等你找到對的data 架構和training。至少要數十次調
整 每次五天和每次一個月 差距就是被幹掉
大大做foundmaion model嗎 我們應用沒有這麼多錢
這也是為何meta有五萬張a100 就是搶縮減時間
misra就是做pretrained llm
應用面就真的都卡在生資料和洗資料 我是不覺得
大家還會瘋狂搶GPU啦
現在不是只有大廠玩的起 很多學校也玩的起
推特有人說大概明年上半年就能看到有人把GPT4等級的
模型開源,大廠大模型還真的沒辦法獨佔惹
上半年要把GPT4等級開源很難吧 誰要開第一槍
哪個大廠願意開源給你fine-tune
很快阿 現在開源已經追上3.5惹
再花半年達到GPT4 蠻正常DER
這東西以後只會越更新越快而已
當然那時候GPT4.5已經推出惹八
7b叫做小模型XD 真會凹
爆
Re: [新聞] 超微AI晶片將追趕輝達講這就表示尼不懂R TPU一部分的問題就在asic惹 估狗AI晶片最重要的應用是廣告推薦DLRM 不是現在流行的chatbot/LLM 尼asic做成那樣惹 就不用來跟gpu比惹 我說我現在的港覺喇23
Re: [新聞] 減少依賴輝達 傳微軟將推自研首款AI晶片每次討論到Nvidia 就會引戰, 但是看到一堆不實的指控, 又會讓我忍不住想說明, 然後就引戰刪文,無限循環 先說結論:CUDA5
Re: [新聞] 中研院 AI 大翻車!繁中大型語言模型 CKI那個 我記得以前的新聞是這樣講的 防止簡體版AI偏見,產官學聯手開發繁體版AI語音模型 聯發創新基地負責人許大山博士表示: 「大型語言模型是近年來人工智慧技術進步的亮點 ,更是未來進步不可或缺的基石。聯發科技向來重視創新及科技發展,此次結合中研院及 國教院,成為台灣極少數能訓練大型語言模型的團隊,既發展自主訓練大型人工智慧模型3
[問卦] AI未來發展有沒有可能有意識?AI現在可以說是顯學 而且一直會不斷發展進步 那會不會哪天真的有電腦學家搞出可以產生意識AI算法? GPT-3 參數:1750 億 GPT-4 據說可能是GPT-3的6倍參數 隨著電腦晶片技術的進步 還有一些AI模型設計的進步
XX
[心得] 大家小心凱基證券會亂報違約交割21
[情報] 11/21 WCI 下跌 0.8%X
Re: [標的] zim.us 送錢給你順勢多5
Re: [情報] MSTR 漲幅超越NVDA TSLA2
[標的] 8044.TW 網家 統一私募入股多2
Re: [新聞] 談川普當選影響 力積電黃崇仁:免擔心「6
[標的]NVDL高歌離席 再慢慢找新標的2X
[標的] 2330台積電 年底前 跟著我們空下去