Re: [問卦] 中華民國沒有AI 已經提前出局 的八卦?
※ 引述 《oftisa》 之銘言:
: 美國、中國在做AI競賽
: 反觀中華民國只會做代工,完全沒有AI
:
: 中國因為被封鎖,所以只能買H20
: 但是可以把第四等的H20打造出一流的AI
:
: 反觀中華民國沒有被封鎖,卻連第四等的H20都不知道該怎麼用
: 完全沒有能力做AI
餓死抬頭,阿肥外商碼農阿肥啦!
很多人都不知道當前AI競賽美中除了拼算力外,還有數據中心跟頂級人才。儘管美國矽谷現在工程師都因為AI弄得非常凍,但是矽谷頂級巨頭另一方面卻加大價碼徵AI頂級研究員,頂級研究員以Meta來說最頂尖的價碼至少2-3億美/年薪,中國的話至少開出800-900萬台幣(200-300萬人民幣)。
當然最頂尖的研究人員看重的是能夠快速提供頂級研究員足夠算力跟訓練數據減少公司申請的繁複程序。這些人才真正重要的是帶動整個模型自研能力,以台灣當前來說即使是台大研究單位其實都是缺乏這塊能力的。
台灣當前做的很多都只是拿現有的模型做微調繁中化而已,而且真的要論以當前有能力自研100B以上的AI研究單位其實這種體積的模型繁中化能力都不差,像kimi、Qwen這類自研架構的只要一出直接把很多微調模型的能力打趴在地上。而且當前很多新的研究都發現其實LLM的核心知識能力在預訓練階段就已經學到了,所謂的後訓練包含微調跟RLHF都只是在喚醒模型的某些特定能力而已。這也是為什麼一堆AI頂級公司都看重自研預訓練模型,而且自研除了能更有效掌握模型外重要的是可以真的的壓榨算力到極致。很多美中的頂級人才團隊除了模型外對於算力的壓榨跟提升熟悉CUDA跟NPU架構也是非常拿手的,而且美國的頂級AI人才當前8成都還是中國華人。
這邊要說的是台灣真的想走這條路,人才的發展絕對是重點,但是我自己是感覺一堆台廠軟體公司要開到600-800萬養頂級研究員根本不可能就是了。
差不多四醬
--
om.tw/amp/article/breakingnews/511530
8
國稅局有ai查稅
要看這個所謂的AI模型是哪種的,像那種純MLP或是ML模型的都不是這波美中在卷的模型, 確切來說這種分類/回歸模型都是上個世紀的東西了。當前美中捲的都是LLM,參數至少要大 到某種程度才叫真正的AI,不然都是上個世紀過時的東西,這種上個世紀過時的東西當前隨 便找一個大學生專題只要他好好用chatGPT都做得出來。
你知道土博畢業率一成嗎,要人才難阿
就沒電咩 一直問是要黨去吃屎逆
台灣人口有限這個賽道基本上沒機會
我們連有在用ai的人都輸...怎麼比
一堆年薪60-80萬就想要一個AI工程師
台灣預算只為政治服務 真的專業人士反
而沒資源
爆
[情報] 50美元訓練出媲美DeepSeek R1標題: 李飛飛團隊用不到50美元訓練出媲美DeepSeek R1的AI推理模型 來源: Futu 網址:![[情報] 50美元訓練出媲美DeepSeek R1 [情報] 50美元訓練出媲美DeepSeek R1](https://i.imgur.com/kFg9GjUb.jpeg)
79
Re: R: [請益] 為什麼中國越來越強?怎抹這邊突然變AI版 =_= DeepSeek 有件事情幹得比矽谷好 就是AI Backend 優化(這玩意就是需要懂架構 和軟體 就是一個苦力枯燥活) 大體而言 在A100架構以前 大部分訓練都還是用fp32 少數模型對精度不敏感會用到fp16 (浮點16進位)主因是用16進位去訓練 精度不夠 容易模型崩潰 尤其用P100的fp1652
Re: [討論] 中研院繁中LLM被爆直接拿對岸的來套小弟待的公司,非學術單位, 可能是台灣硬體計算資源稍微豐富的公司。 公司投入在買GPU 應該近億了。 自己也研究了幾個月 fine-tune 方法。 不過,還是沒足夠能力與資源訓練正常的LLM。![Re: [討論] 中研院繁中LLM被爆直接拿對岸的來套 Re: [討論] 中研院繁中LLM被爆直接拿對岸的來套](https://i.imgur.com/s6MWLNmb.png)
25
Re: [新聞] 天下晨間新聞:Meta、微軟財報,史上最現今AI大模型語言網絡的根本理論問題在於,它就是個類神經網絡的強化版, 它的能力來自於模式匹配,無論如何訓練也不會產生真正智能的推理能力。 所以現在各家廠商耗費巨資狂用電力,可以訓練出愈來愈大的語言模型,但有其局限。 而那局限是現有AI模型無論耗費多少算力都無法跨越。 舉例就像在二維平面,雖有無窮平面廣度,但再怎麼探索也無法離開平面而達三維空間。![Re: [新聞] 天下晨間新聞:Meta、微軟財報,史上最 Re: [新聞] 天下晨間新聞:Meta、微軟財報,史上最](https://img.youtube.com/vi/ojndlMzGZZk/mqdefault.jpg)
23
Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據各家互相參考, 指的是訓練方法還有訓練的文本挑選, 蒸餾不太一樣 AI = 模型的程式碼+訓練 能開源的部分只有程式碼, 訓練是看各自調教 模型的能力夠, 差不多的調教方式就會得到差不多的結果 訓練方法更好, 或是文本品質越高、越多樣、量越多, 模型就越強![Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據 Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據](https://i.imgur.com/ey5mX61b.png)
22
Re: [新聞] DeepSeek顛覆AI產業模式!曝中國2大發展LLM經過這三年發展已展現其潛力,但也陷入(公開)知識枯竭造成的瓶頸 網路爬蟲能抓的都已訓練完 AI模型如還需增加功力,只能望向各家機構(公司)的商業祕密 比如DS團隊使用低階語言PTX來增加GPU計算效率 此部分的知識儲備,據說來自母公司幻化量方過往最佳化量化交易模型的經驗14
[爆卦] 50美元訓練出媲美DeepSeek R1李飛飛團隊用不到50美元訓練出媲美DeepSeek R1的AI推理模型 李飛飛等斯坦福大學和華盛頓大學研究人員近日以不到50美元的雲計算費用訓練了一個名 叫s1的人工智能推理模型。該模型在數學和編碼能力測試中的表現與OpenAI的o1和DeepSe![[爆卦] 50美元訓練出媲美DeepSeek R1 [爆卦] 50美元訓練出媲美DeepSeek R1](https://i.imgur.com/kFg9GjUb.jpeg)
10
Re: [問卦] DeepSeek成本這麽低的原因是啥?分兩個部分來說, ——————————————— 第一個部分是澄清: DeepSeek 是微調別人做的基本模型。 比如臉書 meta 花數千萬美金或上億美金做出模型 llama.![Re: [問卦] DeepSeek成本這麽低的原因是啥? Re: [問卦] DeepSeek成本這麽低的原因是啥?](https://i.imgur.com/O3nSbTXb.jpeg)
2
Re: [問卦] 自由時報笑了:Deepseek準確度超低聽說資訊準確率超低, 那麼為什麼會震撼美國? 昨天猜想的可能原因,再貼一次。 整理一下: 分兩個部分來說,![Re: [問卦] 自由時報笑了:Deepseek準確度超低 Re: [問卦] 自由時報笑了:Deepseek準確度超低](https://i.imgur.com/r066Tiwb.jpeg)
X
Re: [新聞] 賴清德喊話加速發展AI 國民黨:沒電打算希望kmt跟上科技發展的腳步,ai發展是一日千里的。 UCB團隊用30美元的電就訓練出了deep seek r1能力的推理模型,Stanford的團隊50美元復 刻deep seek。 現在算力和耗電已經不算大模型ai的訓練瓶頸,這也是為什麼現在一百多個國家都要做自己 的大模型。![Re: [新聞] 賴清德喊話加速發展AI 國民黨:沒電打算 Re: [新聞] 賴清德喊話加速發展AI 國民黨:沒電打算](https://s.newtalk.tw/album/album/1/67a5a1ffbcdbe.jpg)