Re: [情報] 究竟是 PC 革命還是另一個曇花?淺談 Win
稍微分享一下自己使用心得
目前
ms的copilot(企業版)
公司用
chatgpt(自己付費版)
自己電腦用
目前還是在LLM的module下使用
chatgpt大概屌打copilot一百萬倍(?!
個人體感LLM能走到這一步,就已經可以宣判不懂AI的人,差不多倒了。
後續還會有更多的應用跑出來的,現在先給一個人機介面的溝通(LLM),後續能發展出的產值絕對會是指數成長。
可以有文字,再來就是圖片,再來就是影片
所以老黃才可以這麼囂張
也真的是他才可以這麼囂張
nvlink 真的太豪洨了....
對於AI PC (個人端
短時間絕對可以為創作者先節省超多時間
伴隨著其他module成熟的更快(這需要server用大量的data,這點跟AI PC沒關係)
AI PC 就是等著這些 線上module optimal
本機端簡單使用邊緣運算
讓創作者可以得到更好的成果
AI不是空談,老黃已經把算力弄到太扯了。
當然這是理想
不過要讓這種事情變成普世都懂的時間
大概就是後知後覺的人進場的時候?
4090先好好玩遊戲就好了,屆時晶片會跑多快,可能要先看家裡網路有多快?
以後可能連普通inference都靠網路了。
極其隱私的才會保留在本地端?
--
? copilot功能上比chatgpt多不少捏
我現在還在聽微軟上課 整合的太慢了... office三寶 都整合不了 我就不想提了
現況就是都靠網路啊,不然你的超猛chatgpt
是放陽台在跑嗎?
小白問個問題 GPT是靠顯卡去運算 會
不會出現像是類似挖礦一樣 用個人顯
卡跑運算賺錢?
呃 我是覺得你的算力 相對於他們的算力 可以不用想太多
不喜歡線上運算。憑什麼要把指令、指
令帶來的輸出成果這些東西,無償分享
給模型提供者
沒辦法 一件事情就是正反兩面都有 你也可以參考別人的算法 而且怎麼確定你想的別人沒想到? 能夠快速試錯 這也是他們集合算力的優勢,你自己跑了三天。人家3hr就跑完了 也許早就把你的算法算完了
不會 挖礦是一直套用演算法找到未知的東
東
你跑gpt就跑模型而已
除非以後gpt有類似pcdn模式
gpt只是一個文字接龍的module 光是他的衍生就玩到玩不玩了。 pcdn這種模式,我還沒涉獵到有那個module有在用?
就是付費網站給人家互動暗黑內容啊 :D
這個會佔9成的!!!
單機跑slm可以一群人共用 也可能可以
賺錢吧
沒有反對自己跑 或是自己嘗試UAlink 來試試看 但是要賺錢,挖礦如果還會賺錢,那也是N VIDIA獨賺 而NV貌似沒有往這個方向前進,反而著重在更多更豪洨的算力
再問個問題 挖礦有實際產出嗎 還是單
純付出資源換取比特幣
台灣電價可能不再適合挖礦了。
※ 編輯: shiauber (1.161.209.244 臺灣), 06/16/2024 22:41:44※ 編輯: shiauber (1.161.209.244 臺灣), 06/16/2024 22:47:44
挖礦就是通貨自由化,產出就是生產要
素移動的更便利
回四樓,最近漲很兇的IO幣就是你說的東西,
查一下io.net就知道
copilot是和微軟的系統深度整合
不太好跟chatgpt的方向比吧
真的狗幹一下 MS的整合 可以整合的資源最多,整合卻是最慢的 目前使用上。MS copilot真的很不順。 用過chatpgt4o 真的不想再用M$ 公司的企業版不用錢,不然送我也不會想用。 微軟看起來也不急,如果文書三寶真的互相打通了 他三寶怎麼賺錢... 另外 M$的copilot理論基礎也是基於gpt4
你忘記AI吃超多電XD
不要挖洞XD 台灣不缺電。
※ 編輯: shiauber (1.161.209.244 臺灣), 06/17/2024 00:31:02※ 編輯: shiauber (1.161.209.244 臺灣), 06/17/2024 00:32:15
為創作者節省時間-》老闆裁員囉XDD
這個看你的想法了 節省時間→代表產量可以增多 試錯成本降低。降低開發週期 老闆裁不裁你 跟AI無關 是老闆看到的野心到哪裡
※ 編輯: shiauber (1.161.209.244 臺灣), 06/17/2024 00:46:44
vs code和github copilot整得太好了
現在都是架構問gpt4o 實作直接問copilot
反正openai大金主也是微軟 不管怎樣他
都是勝利者
你輸入指令得出來的成果不也是享用別人的
成果,都像你這樣想那大數據哪裡來
你想自己搞,那就砸大錢搞本機端AI啊
你這心得除了狂吹Ai外,怎麼都沒有實例
別人在講的是買NPU浪費錢(多花錢買
本地微弱算力),你在講雲端算力,
有看過原本文章嗎?
沒人在否認AI用處,而是錢要花對方
式。
怎麼感覺ChatGPT會寫的比這篇好
這樣很好 再次驗證GPT真的強大
實際上本地算力本來就不差那顆NPU,一
張4090就可以抵13顆NPU以上的算力了(假
設NPU有100TOPS),所以這就算有配套應
用,也還是個噱頭
兩件事情 NPU架構 跟cuda不同 可以用 TFOPS來判斷效能 但module可以變 也可以調整 npu只是把cache內容換成幾個 int8 跟int16 別忘了 AI起頭也只是噱頭 多少錢進去燒才是重點
商用office的copilot超廢 用一個月就
退掉了
52
首Po究竟是 PC 革命還是另一個曇花?淺談 Windows On Arm 作者 朱熹 | 發布日期 2024 年 06 月 12 日 7:50 | 分類 AI 人工智慧 , Microsoft , Windows 日前微軟正式發布了自身對於 AI PC 的解讀:Copilot+PC,並同步發表了一系列 Copilot 的功能。然而最大的亮點莫過於第一波 Copilot+PC 皆是搭載具備 Arm 架構的 Snapdragon X 系列處理器而非大家所熟悉的 x86 處理器如英特爾或是 AMD。高通 CEO Cristiano 甚至發出 2029 年 Arm 架構處理器之於 PC 的滲透率會超過 50% 的豪語,究竟所謂的 WoA(Windows On Arm)真的是 PC 界的革命,還是另一個曇花? 雖然搭載Snapdragon X系列的Copilot+PC尚未上市,但從高通丟出的數據看來不管是在效能或是能效上都頗有當年蘋果第一次發表M1晶片之姿:相同瓦耗下效能贏過具備Meteor Lake架構的Core Ultra處理器37%,相同效能下瓦耗低了54%。跟同樣是Arm架構的M3相比,頂規的Snapdragon X Elite效能多了28%。 在內顯的表現更是驚人。相同瓦耗下效能贏過具備Phoenix架構的AMD 7000系列處理器80%,相同效能下瓦耗也低了80%。在大家更關心的軟體相容性部分,高通也強調已經和微軟攜手合作讓Snapdragon X系列晶片原生支援一系列使用者最常用的軟體如Office以及Adobe,電競部分高通也強調已經有超過1200套遊戲可順暢於Snapdragon X上運行,難道WoA真的要掀起一波PC革命了嗎?55
所以AIPC是個騙局吧? 看了很多文章後 幾乎都寫怎麼樣的電腦硬體才能領航新時代的AI發展 硬體不達標就是淘汰了,只能留在舊時代跟AI說再見了 我看微軟的Copilot教學,說可以跟它互動、聊天 能請它靜音、截圖、開檔案總管、排視窗.....啊?就這樣?
爆
Re: [新聞] 超微AI晶片將追趕輝達講這就表示尼不懂R TPU一部分的問題就在asic惹 估狗AI晶片最重要的應用是廣告推薦DLRM 不是現在流行的chatbot/LLM 尼asic做成那樣惹 就不用來跟gpu比惹 我說我現在的港覺喇爆
Re: [新聞] 輝達H100晶片紓壓了 訂單大戶開始轉售你劃錯重點, 先不論這篇論文的可行性與實用性, 你真的劃錯重點了 算力重要嗎? 重要但是不是影響販售/採購晶片的主因,94
Re: [新聞] 輝達傳再推中國特供AI晶片 最快「這時」老黃應該是有機會能繼續用黃家刀法 用高階價錢賣低階產物給中國 從美國的最大化利益角度來想 美國也會希望老黃賣次級的晶片給中國 這樣就某種程度能最大化阻滯中國發展 和弱化中國科技樹發展 比方說 中國最近的華為昇腾910B AI晶片號稱對標A100 已經賣給百度作為AI開發用途 如果說中國目前上面自製化晶片算力是10 那A100是30 H100是50 那老黃只要賣給中國晶片30
Re: [請益] 什麼樣的情況下AI才可能崩盤再次說一遍 千股NVDA 防身防失業防變成電池防小人防渣男 QQ 半導體有所謂的摩爾定律 AI也有 就是所謂的Scaling Law 他基本上給了一個大方向 AI是有三個元素組成 算力 算法 資料 Scaling Law基本定錨模型大小算力和資料相關性 沿者這條路的終點就是AGI 看看AI教父最新的訪談7
Re: [討論]有可能不學coding就可以取得前後端工作?先不用談那些面試會遇到的問題,因為基本上目前的LLM能夠作到的能力是boosting 跟teaching而boosting的基礎使用者要會寫code,而teaching的的結果是使用者會 寫code 不可能無中生有,因為這違反了目前LLM的基本邏輯:文字接龍。所謂的文字接龍 ,前半段提示詞的好壞,決定後半段生成內容的品質,當用戶連怎麼正確描述自己5
Re: [討論] 大家目前寫程式會使用的AI工具純討論 jetbrains ai 跟 github copilot 個人版。 我簡單比較一下在 jetbrains ide 上的表現 1. github copilot 不能聊天(要到2024年) 可以自動補齊4
Re: [新聞] 下半年將引爆「換機潮」? AI PC元年來臨阿肥外商碼農阿肥啦! 這邊很多人沒說到點上,當前的AI PC概念根據微軟的定義是搭載微軟Copilot的PC就可以 叫AI PC,然後Intel定義的是有NPU(GPU的開放架構特化加速DL運算版本)。 不過當前如果你去看所有開源的LLM(大語言模型)都只能說是勉強堪用,以Intel號稱可 以搭載llama2 70B(當前開源模型中前幾大的)的Core Ultra AI筆電,造價至少4、5萬3
Re: [新聞] 雷蒙多態度髮夾彎 允輝達向中國出售AI晶這是最近幾天TSLA那邊AI晶片訊息 現在看來就是NVDA+AMD會繼續有機會在AI晶片市場拉一波 最近另外一個比較紅的新聞是 Mistral AI小公司開發的LLM模型吸引不少人 而Misral AI是用CoreWeave租借算力 開發出來的大模型 這些小公司能靠租算力媲美大公司發展的模型- 講一些自身經驗好了 自從AI領域在生成式題材大火後 全世界就進入到AI軍備競賽 所有的AI基礎研究都是以週甚至日為單位在迭代 舉個例子 當年Robert G. Gallager 在1960提出類神經網路的LDPC code到2004年才大放異彩 無限接近shannon bound 光這個演進就花了40年 對照這幾年的AI科技樹發展 根本就是指數在成長