Re: [心得] WWDC24節錄-系統級個人助理面世
※ 引述《KimomiKai (時雨大天使)》之銘言:
:
: Q:阿婆完全照搬OpenAI的GPT模型嗎?
: A:沒有,這次提供的是本地自家模型以串接的方式連動GPT模型,也提供用戶關閉此功能
: 的選項
不call gpt的話,很多地方效果肯定沒有wwdc展示得這麼美好
: Q:除了本機端上的模型,發表會還有提到蘋果自家的私有雲端伺服器?
: A:是,相較於本機端的模型,阿婆保證自己的資料不會儲存在雲端上
即便不儲存,還是會被拿來訓練進來啊,而且客戶也無法驗證,就像那些畫師在吵的剽竊問題,你沒證據大家都不知道
: ===
: Q:幹嘛不下放到A14以後的晶片使用?
: A:除開NPU算力足夠以外,對於AI自然語言模型的關鍵還是在於記憶體大小
還有就是不損失slm能力前提下,縮小模型和和各種加速方法
不然nv縮小ram用量和加速做心酸的嗎
優化rag架構解決上下文的效率也是一個大門
: 只有iPhone 15 Pro有達到8GB記憶體門檻,其餘以下設備未達的情況下,阿婆想保證這項
: AI使用順暢易用,就只有提高使用門檻,畢竟在此之前iPhone等終端設備也有一些AI應用
: (非生成式模型推理),勢必佔用記憶體,我想阿婆有所考量。
: ===
: Q:這次的AI相比他牌的AI有什麼優勢?
: A:其實發表會反覆提及到App Intents API,這個API直接決定了未來Siri能否達成非常
: 順滑的使用體驗,畢竟這種系統底層的權限,現在只有封閉環境的阿婆有辦法大力整合
還是得賣自己個資
win11系統的copilot本質上也是在做這個
: 而且之後的開發者統一指標就是能否透過這個API讓系統得以間接使用手機內既有的資訊
: 跳轉。
簡單講要完整體驗的話,記得送自己個資給apple/openai
gpt傳到sv強化訓練迭代,apple傳到自己sv顧慮隱私問題不訓練的話,跟openai比優勢在哪?數據要找誰買來訓練自家蘋果ai?
蘋果有沒有那麼多sv和晶片應付客戶龐大的頻寬也是個問題,若想靠自研npu降低對nv的依賴,目前npu也跟不上nv gpu+cuda的訓練效率,更不用說各種壓縮模型的加速,最後也要考慮到台gg的產能能給蘋果多少?
如果還要有中日韓英,考慮因各語系結構邏輯差異和數據品質,勢必會擴大手機終端裡slm的大小,要就低精度笨模型塞在8Gram,不然就是跟進16Gram行列,順帶拉高產品價格。mac和macbook則不太有ram問題,倒是可以放心local llm和系統rag的部分,只是也要等各語系加強模型
況且哪來的訓練數據給apple?
光看台灣做的7b中文某T模型也很慘,各種中文資料卡在版權問題,也沒有足夠硬體從底層做中文llm,32片H100是能幹嘛?
最後導致更多沒有高品質和廣泛領域的數據做訓練(且還是微調而已),微調效果也比純英文llama3 7b還笨,之前還爆出用中國model微調台灣7b出包
更不用說在低精度的終端手機跑3b模型能有多少實用性,訓練中文的token相比英文也很吃虧
中國方面則有很多很不錯的llm,蘋果他們對政治問題部分應該不用太擔心
以後想塞入這些各語言的slm提升用戶體驗擴大市場,slm容量也會大很多,進而更吃終端的ram,不然就犧牲用戶數據訓練強化,到頭來還是得依靠用戶數據和nv才能保持市場領先,靠自研npu還是不太樂觀
Rag整合到os底層固然不錯,但光靠npu和不拿客戶數據訓練肯定會落後很快
除非openai協助提供各語言的slm做整合或幫忙訓練,裝在apple sv補強各語系的問題
目前無論什麼情況都需要用戶數據去強化自家llm加強蘋果ai的使用體驗,年底新機發表就見真章
//
個人見解大概是這樣,可能會有錯誤的部分也歡迎提出
--
中國的LLM餵的資料一堆錯的,有屁用??
不懂不用回。
看第一句就可以整篇跳過了==
完全是門外漢的言論欸,你沒有搞過AI 的話不要上來亂
講
我們可以等個一年再回來看,看看中國有什麼第一梯隊的大模
型。
一個限制知識和真相的環境,我很不期待它們在大模型上有未
來。
日本核廢水,中國的科學結論與全世界都不同,你想使用這樣
的模型?
55
Re: [問卦] 中研院自己做的大型語言模型怎麼了?阿肥外商碼農阿肥啦! 昨天晚上都在跟獵人直播來不及趕上大型翻車現場,這邊中午看hugging face hub還 可以進去,但現在已經進不去了。 這邊阿肥就直接說,基本上現在所有中文開源語言模型除了少數像chatGLM這種中國比較 早期做的自己完全從零訓練的語言模型外,大家都是從meta 的llama魔改的,差別在於預46
[情報] 隨著蘋果發布新AI模型,這表示iPhone 16隨著蘋果發布新AI模型,這表示iPhone 16將成為軟硬體都具AI支援的首個產品 【情報來源】 原網址: 短網址: 【情報/優惠內容】14
Re: [閒聊] 文心一言AI繪圖(慎入)文心一言實力不如ChatGPT是理所當然的,微軟投資幾百億美元並且用微軟的雲端訓練整個網 路資料兩年了,到了去年底才終於開花結果 目前這種LLM模型,最重要的就是 資料 算力 和算法,其中基礎的資料是非常重要的,Chat GPT在建立模型的過程跟一般的Ai一樣要機器學習建立模型,而ChatGPT的基礎原理就是由上 一個字生成下一個字,週而復始,其中在訓練的過程還會經過人工挑選優質回答和一些和添17
[討論] 手機跑小型ChatGPT ~ LLaMA大型語言模型祖克伯的Meta公司今年2月公開的「LLaMA」是體積比較小的大型語言模型(LLM)。 LLaMA依照訓練參數數量分為7B、13B、30B、65B。訓練數量雖比不上OpenAI的ChatGPT,但 是硬體需求大大降低,是個人電腦甚至旗艦手機都跑得動的程度。 根據他們paper的說法,LLaMA 13B的模型性能比GPT-3模型要好,可以作到基本對答。 一些LLaMA可以達成的任務X
Re: [爆卦] 中央研究院詞庫小組大型語言模型對於LLM只有這一點認知程度的話,最好不要就這樣出來帶風向會比較好,不然先去 跟陽明交大校長先去旁邊先學習一下什麼叫做LLM,不同LLM之間又有什麼差異。 第一個錯誤的認知是認為LLM就應該要提供正確的答案,事實上LLM是一個機率模型, 它所做的事情是基於模型的權重預測下一個token(詞塊)最高的機率是那個,它不是資 料庫,所以你不能因為它答的一個答案不是你所想的就是說這個模型如何如何。2
Re: [爆卦] 中央研究院詞庫小組大型語言模型阿肥外商碼農阿肥啦! 今天忙到剛剛才看到這篇,先說derek大大有點避重就輕的點, 大家都知道LLM就是一個機率模型,更正確來說應該是一個生成式模型,概念就是他從訓 練數據集當中去模仿數據源的分佈。 當然,我相信這絕對是中研院自己finetune的,也不是說只是拿別人模型出口接了openCC1
[問卦] 訓練阿美語的大型語言模型當碩論可行嗎以下是chatGPT的生成內容 ----- 訓練一個專注於特定語言,如阿美語的大型語言模型,是一項複雜且耗時的工程,但可以透 過以下步驟逐漸達成: 1. **數據收集**:阿美語作為一種少數民族語言,其可用於訓練的數據可能相對有限。首- 請容我搬運一篇對岸知乎的文章, 這是一篇非常長的文章,其中大部分片段與本文無直接關聯,而且是2023/02寫的. 我只搬運本串相關的記憶體的部分,還有尾部的結論.且未修飾原文用字 詳細的有興趣請直接去原網址看吧. ChatGPT背後的經濟賬