Re: [請益] 什麼樣的情況下AI才可能崩盤
再次說一遍 千股NVDA 防身防失業防變成電池防小人防渣男 QQ
半導體有所謂的摩爾定律 AI也有 就是所謂的Scaling Law 他基本上給了一個大方向
AI是有三個元素組成 算力 算法 資料
Scaling Law基本定錨模型大小算力和資料相關性 沿者這條路的終點就是AGI
看看AI教父最新的訪談 https://zhuanlan.zhihu.com/p/699127896
這也意味者Scaling定錨算力類似像電力一樣 永遠不嫌多 然後你沒看到AI盈利模式是
是因為最近這幾波AI提高生產力是從業界生產工具開始 (今年老黃GTC已經暗示了很多)
像是RAG/DocAI/更別說面向設計業者影音等 等終端消費者終於看到AI落地場景時
那通常已經擴散到on-device端 從GPT4 2023/03第一次出現到僅僅只過去一年
但已經一堆黑科技大量出現 比方多模態AI能做哪些事情
幫助產業openai已經示範了很多 照這種速度 5~10年 會看到大量落地應用
包含機器人多拉a夢
AI發展正處在非常誇張的高速發展 另外個例子 2023年LLM context token length約8k(你可以理解成他單次能吸收資訊量 每個token大概等於0.75字母
所以單次大概可以餵食6000英文字母給LLM) 到今年狗家LLM可以有1M context token
(大概等於1200頁數 pdf) 搭配多模態 這玩意能瞬間處理巨大資料量
這意味者這個虛擬助手 你隨便丟給他1200頁的百科全書 他瞬間就可以回答你要的資訊
並且不只是返回資料 它能整理成你理解形式 幫助你瞬間了解1200百科全書
再搭配diffusion這類型模型 他甚至能畫示意圖來引導你對知識認知
這種提高生產力已經超越人類助手....多模態LLM以後會非常適合處理巨大資料量
幫助人類在工作上的需求 這些需求都是指向算力(高速計算)和記憶體這倆相關產業
至於胡言亂語這部分特性 目前證據指向模型越大 數據越多 多模態越多 胡言亂語越低
而AMD的未來會在Inference端 也就是onnx轉模型c code這類型
目前現在的戰場還沒全面到Inference 所以也是充滿不確定性 主因是
老黃也開始殺到inference端了 但AMD也是少數唯一能在infernece有前瞻性
加上市值低 蘇媽也算是少數屬於能端出東西的ceo 值得可以賭賭看QQ
而on-device端會在高通果家狗家這類型公司全面廝殺 而記憶體就是那三大家HBM
然後台灣就是代工 QQ
--
註 在Scaling Law之前 沒人能量化 算力要多少 模型要多大 資料要多少 會有哪些效果一但有一個數學公式能量化這些關係後 他就像shannon bound定義了通訊效能要如何發展這也意味者算力會是無窮止盡的需求 就像摩爾定律一樣
※ 引述《pujos (lks)》之銘言:
: 現在的AI有盈利模式嗎?
: 幾乎所有企業家的希望都是
: 拿機器取代人力
: “砍掉人力降低支出”
: 什麼叫降低支出
: 錢不會從天上掉下來欸
: 真的讓這群企業家
: 希望成真
: 你猜大部份人收入是變高還是變低?
: 這種情況下
: 兄弟
: 你問問你自己
: 你口袋還有多少錢
: 能支付給
: 看起來有無限發展的AI未來
: 自古以來
: 真正能賺錢的行業一直都是保護
: 而不是單純的發展
: 盤子撐不大的前提下
: AI是沒有未來的
: 燒錢堆設備、燒錢堆算力
: 然後呢?
: 最終
: 你指望誰來為這些費用消費、買單?
: ※ 引述《keio5566 (56不滅)》之銘言:
: : #相信NVDA
: : #相信黃董
: : 小弟資產過五成直接/間接跟NVDA綁在一起,感謝黃董賜我吃喝
: : 半導體雖然長期來說是成長趨勢,但漲的多高下一波就跌的多深
: : 這波看似穩到不行的AI潮,要發生什麼情況下才有可能下去呢?
: : 1、真實版天網上演
: : 各國意識到AI發展對人類產生的威脅,限制AI發展? 感覺至少10年內不太可能發生: : 2、其他產業崛起取代? 目前看不出來有什麼能打的
: : 是不是穩到一個不行?
: -----
: Sent from JPTT on my Xiaomi 2210129SG.
--
最終端的實現還是卡在工具與工藝要能跟上啊,否則
就是輔助。就像機器人知道怎麼做問題是關節不夠精
細做不出來
以做公益的心態來說沒問題 問題是變現能力和投資人
耐心的拉扯
AI幫助你設計機器人
不知道會變怎樣的電池,黑鏡有一集,所有的下等人
整天都在踩腳踏車
人類當電池要先有個設備實現從大腦抽能量且轉換成C
PU使用的形式
我蝦雞掰打幾個字 然後按各AI測試 馬上語順超通...
瞬間 我想講的就變成作文了...那作文不就變論文
可怕的是 那人就變越來越笨了阿 = =超扯
狗家2M了 你腿了
....我還真腿了 這完全不給人活路啊..QQ 我還是去顧機台好了
※ 編輯: LDPC (24.4.211.194 美國), 05/23/2024 12:49:58當年網路泡沫就很多業界人士預言了萬物聯網,但不妨
礙崩盤就是,因為崩盤後剩下的才是真貨
技術擴展跟盈利增長不一定是同步
目前AI還是賣鏟子的在賺錢,跟思科一樣,你網路應用
要多媒體、商務、行銷怎樣我不管,但你總要網路設備
吧
教主怎麼看
算力的極限 = 電廠的極限
抱不住怎辦 之前那根 我絕對會被洗掉
以網路速度來比 算力現在還在撥接時代 遲早需求要往
目前還是鏟子比挖出的金子貴的狀態,帕魯比算力跟電
力便宜
寬頻走的 除非AI完全沒商業化運用
即時破解馬賽克 生成無碼部份 不知道什麼時候會有
?
科技公司取代內部高貴帕魯應該是最先的,再來就是好
萊塢
鏟子賣完了 ai也挖完了 怎麼熱賣才是未知數
全世界最貴的帕魯們就在美國東西兩岸,搞金融媒體軟
體行銷設計
不是教主我可不信喔
專業推
@leotompp 換個角度想,如果你是認真寫文章的,那AI
推測影響高階人力決策效率會差很多,比如戰時參謀本
部
等於是個超低廉的作文老師。這方面在我看比copilot
還有前景,畢竟差不多用途與設計的程式照理講不必寫
兩次,可是內容差不多的東西卻可能會一再需要表達
算力的成本如何計算?
鏟子要先降價吧 -.-
AI設計的機器人變T800
所以台灣根本不必擔心少子化 未來的工作絕對會變少
黃賭毒嫖,尤其是嫖,AI應該無法取代
思科泡沫前本益比是100倍 輝達要100倍股價會多少?
推! 這波真的是發現堆算力出奇蹟後 進步跟飛一樣
.com泡沫不代表網路完蛋了 當初的願景最後都有實現
現在AI願景一堆看起來很扯的 最後也都可能實現
馬上就要寫萬股防身了 = = 股數通膨好可怕
MTK在On-device有機會嗎?
這篇看法太偏重力資料 算力 大模型AI現在的確最夯
可是從演算法突破的中模型小模型AI也開始努力了
未來要讓AI普及還是要靠小模型
除了企業,這已是國力的軍備競賽。一定有國家在偷
拿AI做軍事用途。戰鬥機器人一旦上場,沒有mercy.
說沒辦法嫖的可以看看HBO拍的"西方極樂園Westworld"
嵌入式裝置困難,電池又沒大進步,只能當終端資料處
理跟特定功能小模型而已,但是炒股潛力還是有
好的 我不貪心 台積電999元賣
有用過GPT去解決問題就知道很燒腦的
還好AI應該不會綁鋼筋修馬桶剪頭髮當立委總統
我猜在我有生之年應該也很難看到AI開公車計程車吧
不是說現在很缺大客車司機 AI司機什麼時候才要上市
先取代記者拜託
爆
Re: [新聞] 輝達H100晶片紓壓了 訂單大戶開始轉售你劃錯重點, 先不論這篇論文的可行性與實用性, 你真的劃錯重點了 算力重要嗎? 重要但是不是影響販售/採購晶片的主因,84
Re: [新聞] 台積電:AI需求噴發 但全球科技業復甦不AI跟5G的類比講真的有點勉強 同樣也跟2000年網路基建的狀況不太一樣 來看一下祖家大少怎麼講的 其實重點並不是AI20
[情報] 華為將生成式 AI 結合到鴻蒙 4.0 系統華為率先將多模態 AIGC 整合進鴻蒙 4.0 作業系統,手機端就能進行小藝 AI 創作 出處:科技人 相信有在追蹤科技趨勢的人,已經對 ChatGPT 不陌生了;作為生成式 AI(AIGC)的代表 產品,ChatGPT 已經成為了許多人在工作時必備的工具。華為 8 月 4 日舉行鴻蒙 4.014
Re: [閒聊] 文心一言AI繪圖(慎入)文心一言實力不如ChatGPT是理所當然的,微軟投資幾百億美元並且用微軟的雲端訓練整個網 路資料兩年了,到了去年底才終於開花結果 目前這種LLM模型,最重要的就是 資料 算力 和算法,其中基礎的資料是非常重要的,Chat GPT在建立模型的過程跟一般的Ai一樣要機器學習建立模型,而ChatGPT的基礎原理就是由上 一個字生成下一個字,週而復始,其中在訓練的過程還會經過人工挑選優質回答和一些和添21
Re: [問卦] 為什麼AI 這2-3年進步這麼神速?我剛好研究所讀資工領域的。 你應該知道在這次AI大模型震撼世人之前,電腦科學界在紅啥嗎?? 就是Big Data,大數據,資料探勘。 但是因為"算力"不足,所以在十年前,幾乎都是關注於儲存與基礎處理而已。 譬如NoSQL數據庫與一些簡單的資料探勘,那個時候SVM分析歸類資料可火的。X
Re: [爆卦] 中央研究院詞庫小組大型語言模型對於LLM只有這一點認知程度的話,最好不要就這樣出來帶風向會比較好,不然先去 跟陽明交大校長先去旁邊先學習一下什麼叫做LLM,不同LLM之間又有什麼差異。 第一個錯誤的認知是認為LLM就應該要提供正確的答案,事實上LLM是一個機率模型, 它所做的事情是基於模型的權重預測下一個token(詞塊)最高的機率是那個,它不是資 料庫,所以你不能因為它答的一個答案不是你所想的就是說這個模型如何如何。1
Re: [情報] AMD 7800XT/7700XT 售價US$449起 9/6上市AMD的GPU行銷真的是笨死了。每個人都拜託他們出24GB或48GB的卡,這麼簡單就大賣的方法不作。還在搞FSR,難道不知道現在是大AI時代嗎? 7800xtx 24GB,549鎂,還不賣爆。 79x0xtx 48GB,1200鎂,還不搶光。 現在一堆AI inference的需求,欠缺在ram不夠。Training也許還是不行,但inference社群作一堆了,就等你出卡而已。結果你出16GB??? 例如最近mlc-llm測試7900xtx 推理可達4090的80%。11
Re: [討論] AI晶片現在業界單純說AI晶片是太籠統的說法了, 為了獲得最高效能與最高CP值, 業界把AI晶片細分成以下幾類, 1. Training 訓練: 這是目前業界最難做的部分,5
Re: [新聞]剖析中研院大型語言模型事件的衝擊先說結論: 發展本土化,繁體中文LLM模型,然後期待這個模型能讓大家使用,根本是錯誤方向。不知道這些專家學者,是在騙經費,還是還沒想清楚產業到底缺什麼。 --- 如果今天你使用Google搜尋,搜到"台灣是中國的",或任何有政治偏見的相關文章。 你會不會覺得Google很爛?1
Re: [問卦] 什麼能力不會被AI取代阿肥外商碼農阿肥啦! 先說啦!基本上依照目前的AI趨勢高階具備獨立自主思考能力或是低階廉價勞工還是很難 取代,最會先被取代的是中階比較偏向指令式的開發人員,這些大量初階的paper work或 是coding work可能有機會被慢慢取代(依照過往人類歷史工業革命也花了五十年到一百年 才全部完成)。