Re: [新聞] 輝達H100顯卡「訂價139萬」...上架就秒殺
※ 引述《sxy67230 (charlesgg)》之銘言:
: H100真正的目的就是拿來訓練LLM跟NN模型而已,普通人根本沒Data是要訓練三小模型= =: ?
看你講那麼大聲 結果根本外行
訓練LLM的dataset網路上都找得到 根本看不完
從wikipedia擷取到從fandom蒐集次文化資料、pdf電子書等等
還有專門RolePlay的chat資料集
跟從遊戲擷取的對話文本等等.....
只要你的運用不偏門 大部分的資料都找得到
自己寫一個爬蟲也沒多難 我上週才寫了一個爬pixiv dict的程式
LLM的pretrain跟fine tuning資料來源不是問題 時間跟錢才是
大部分的做法是拿現有pretrain過的model在runpod上租GPU來再訓練
--
※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.230.52.184 (臺灣)
※ 編輯: bachelorwhc (36.230.52.184 臺灣), 07/07/2024 22:55:04
※ PTT 網址
推
跟你說,政黑的推文都拿來訓練,錢賺飽飽
→
你說的內容一樣說公司會買來裝置來讓費
→
用客戶使用 所以一樣是他提及的公司買
→
貨
噓
糗嘎並軌 你多會爬 你要花幾年爬完人
看你這種論調就知道你連HF dataset要怎麼下載都不知道 就別出來丟臉了
推
所以都是大公司做pretrain model 一
→
般人沒啥資源就fine tune阿
→
fine tune就是拿specific task需要的
→
資料去訓練就好 除非你是要通用領域
推
老婆當然只能裝大器啊 都幾歲了難道要
→
離婚去找第二春喔 老公有持續拿錢回家
→
就好了啦 在外面想怎麼玩就玩 反正就
→
是新台幣維持的婚姻 男生要是沒錢早離
→
樓上推錯文
X
H100打遊戲就是張渣卡 不如送我 我免強吃愧一下 用珍藏已久的GTX-1080 來交換 保證打遊戲不delay! ※ 引述《jis0077 (一個人的輕旅行)》之銘言: : 輝達H100顯卡「訂價139萬」...上架就秒殺! 鄉民震驚![Re: [新聞] 輝達H100顯卡「訂價139萬」...上架就秒殺 Re: [新聞] 輝達H100顯卡「訂價139萬」...上架就秒殺](https://img.youtube.com/vi/-nb_DZAH-TM/mqdefault.jpg)
其實這明顯溢價了 不太可能真的有人買 目前實際成交行情 H100 80G Pcie: 25,000美金左右1
, : 但竟然已經賣完了,讓鄉民都好震驚。 : 輝達顯卡賣場。(圖/PCHOME) : 有網友在PTT「PC_Shopping」板發文表示「NVIDIA NVIDIA H100 80GB Tensor 核心 GP U2
哪裡沒人買 數位產業署打造的AI力池,首年度採用輝達的H100晶片32片、AMD的MI300X晶片8片,強大 算力展示火力,後續逐年視需求增購顯示卡顯示卡(GPU)算力。 大數發部快拜![Re: [新聞] 輝達H100顯卡「訂價139萬」...上架就秒殺 Re: [新聞] 輝達H100顯卡「訂價139萬」...上架就秒殺](https://bucket-image.inkmaginecms.com/version/social/1/image/2024/06/48b7dd9e-0699-4d9f-8851-cc9876121f3f.jpg)
爆
Re: [新聞] 輝達H100晶片紓壓了 訂單大戶開始轉售你劃錯重點, 先不論這篇論文的可行性與實用性, 你真的劃錯重點了 算力重要嗎? 重要但是不是影響販售/採購晶片的主因,![Re: [新聞] 輝達H100晶片紓壓了 訂單大戶開始轉售 Re: [新聞] 輝達H100晶片紓壓了 訂單大戶開始轉售](https://i.imgur.com/GxJuHEib.jpeg)
52
Re: [討論] 中研院繁中LLM被爆直接拿對岸的來套小弟待的公司,非學術單位, 可能是台灣硬體計算資源稍微豐富的公司。 公司投入在買GPU 應該近億了。 自己也研究了幾個月 fine-tune 方法。 不過,還是沒足夠能力與資源訓練正常的LLM。![Re: [討論] 中研院繁中LLM被爆直接拿對岸的來套 Re: [討論] 中研院繁中LLM被爆直接拿對岸的來套](https://i.imgur.com/s6MWLNmb.png)
43
Re: [請益] NVDA跟AMD怎麼突然崩了本來中午要去吃飯剛好看到這篇,雖然我說的內容可能大部分人也可能不太理解, 但巷子內的看到應該會覺得還是蠻怪的,當然有更多大神指點是更好的 ※ 引述《LDPC (Channel Coding)》之銘言: : 週末有點時間 之前寫的老黃故事 : 這幾年AI模型突飛猛進的一個關鍵點就是 泛化的能力![Re: [請益] NVDA跟AMD怎麼突然崩了 Re: [請益] NVDA跟AMD怎麼突然崩了](https://miro.medium.com/v2/resize:fit:772/1*9bgIVlCRKiL7hxgvZW0wjg.png)
17
Re: [討論] 跑實驗數據要跑多次取平均嗎路過看到這篇 自己剛好有參與過幾篇ML相關PAPER 來隨手回一下 想到啥就打啥可能有點亂 另外有錯也麻煩推文講一下我再修改 以下只講正規作法 先不討論一些偷雞做法 首先 實驗的目的就是為了證明自己的架構/做法比別人更好 那實驗重點就是要用嚴謹的方式來證明這一點
Re: [請益] Side Project 轉正該爭取什麼?兩種狀況: 1.想要程式碼換論文掛名,又不想多做其他維護與修改。 2.怕程式碼給別人維護,你就不能論文掛名了。 1的狀況: 人家的論文主要貢獻,是你的搜尋系統嗎?還是新資料?
[問卦] 台灣本土化LLM是不是騙局??完整的LLM訓練成本極高 可能一次就要兩百萬美金 如果本土化LLM因預算限制只進行fine tune調整 因為pre trained內容以英文為主 處理中文效率差很多