Re: [心得] 蘋果揭露人工智能並不思考
唉。
所以邏輯是一個很重要的東西,首先來看以下幾句:
「A是錯的,故B是正確」、「A是錯的,但未來A會更好,故A必定會比B更好」
但實際上令A,B都會有對與錯的結果,那麼總共會有:
A
對 錯
對 (+,+) (-,+)
B 錯 (+,-) (-,-)
那麼我們再看A,B的相關性,則會變成:
(1)高度正相關:(+,+) 和 (-,-) ,A正確,B也正確,反之亦然。
(2)高度負相關:(+,-) 和 (-,+)
(3)低度相關:(+,+)和(-,-),但也會有些 (+,-) 和 (-,+)。A,B可能無關聯。
那這跟時間有關嗎?沒有。
那麼再看提到的幾個概念:
1. 演繹法(Deduction):
從原則推導出結論。例如,若所有A都是B,且C是A,那麼C也是B。
在貝氏統計中,類似於用宣告的機率來推導後驗概率。
問題:
如果前提本身是錯的,結論也會錯。ex:銅會導電,故金屬會導電。
2. 歸納法(Induction):
從特定觀察推導出一般原則。例如,觀察到多次A都是B,那麼推論所有A都是B。
在貝氏統計中,類似於使用資料集來統計出現機率,而宣告後驗機率。
問題:
抽樣誤差:因為資料獲取非隨機或不大,導致資料的特徵與實際有誤差。
EX:你看公園的天鵝都白的,推論出天鵝是白的,但黑天鵝光是在澳洲就很多。
只是你沒有花錢去澳洲看過而已。
3. 類比法(Abduction):
從觀察到的結果推導出可能的原因。例如,觀察到現象X,推論可能的原因Y。
在貝氏統計中,這類似於使用條件機率來推導最可能的原因。
問題:若無相關性,則推論會錯誤。EX:Welles J. Wilder《三角洲理論》
認為太陽地球月球的相對位置,與股價漲跌有關,故可預測未來價格。
那麼你有基本的歸納能力,就會得知:由於貝氏推論跟人類的常用的三種推論法,
具有一定的相似度,可以說邏輯上具有高度相關,故實際上會出現:
人類的推論有錯,那麼貝氏推論也會有錯。反之亦然。
例如你宣告的先驗機率是錯的,那麼實驗結果就會有差異。
你的資料有隨機錯誤,你統計的機率值也會被隨機值影響。
以及資料最終是個別獨立的事件,你卻作為相關性分析,那也會生出低度相關結果。
故為何大型語言模型(LLM)會出現錯誤?
1. 條件機率誤差
若LLM使用觀測的特徵來做為機率來預測下一個詞或短語,基於當前的上下文。
如果本身觀測的資料不多,就會生成不合理或錯誤的文本。
2. 數據品質
如果數據共有A,B兩種,例如簡體中文與繁體中文。但是產出只能有一種。
例如你不會想看到簡繁混雜,認為這是參雜雜訊的錯誤。
但模型會抓到簡體中文資料,故不可避免會出現不符要求的低品質錯誤。
例如品質會講質量,土豆會講是馬鈴薯。
3. 假設不合理
假設模型依照A,B資料推論出相關性分析,但A,B資料不具高度相關,
那麼給出的答案就不見得具有有效的因果關係。如果模型再依照資料推論,
就會出現下面這點:
4. 先驗概率不準確
引用不準確或基於不充分的機率宣告,當然會生成不合理或錯誤的的結果。
而上述1,2,3,4只要有一個環節錯,那就跟人類解題一樣,計算錯誤會影響
後面的答案是否正確,故你沒有找到錯誤,模型當然會出現錯誤。
模型可不可以弄出糾錯機制,可以。但這前提是你要先建立一個規則。
但如果你一無所知,你怎麼能弄出一個可以糾錯的規則呢?
這是雞生蛋蛋生雞的問題。故不可避免的,你必須接受模型本身會出現錯誤。
而就像有機率必然會發生,你可以說「台股大跌10%未來機率很小」
但基於此描述之機率很低來論「未來台股大跌機率一定越來越小,Sell put一定贏」
那麼這種未來一定更好,本質上也是屬於文中提到的歸納法推論錯誤。
模型本身就是這樣,有自己做一個規則的模型的人,大多會了解自己模型的侷限性。
所以你會有限度的應用它,但如果作為不了解規則的人,那他就不會理解簡化模型
的極限在哪,而給予錯誤的期待與想像。
蘋果的研究對我來說就只是用漢諾塔再一次說明了這些問題,
在簡單的問題,你加入了推理,如果推理過程出錯,那答案也會出錯。
太複雜的問題,推理過程會更長,如果推理過程出錯,那答案也會出錯。
你給了無關的資料,雜訊的資料也會導致引用至推論而出錯。
特別是漢諾塔它其實已經有最佳解的公式,而且漢諾塔是公開很久的遊戲。
理論上資料集也應該會有此公式可引用來作為演算規則,但為何LLM有推理
也不見得會一直根據此規則來找出最佳解,那就是說明了LLM其實是一個
會自己造輪子找出解。而不是具有能建立可驗證的推理過程。
而基於本文提出的錯誤類別,你會發現人類會出現的推論錯誤。
就算基於貝氏條件機率的推論,也同樣會出錯。故你必須要接受就算加了推理
模型還是會有出錯的可能性,這就是它的極限,你無法避免。
--
嗯 跟我想的一樣
我很好奇,全球上百兆的資金是投在這個答案上嗎?
就說了 只要是最大可能性模型可靠度問題就無法避免
再加入貝氏統計 頂多也是再優化 但本質問題不變
目前是往AI執行任務比人類可靠的方向發展
這跟數學物理那種嚴謹的證明正確並不相同
舉例來說 人類開車與自駕車都會出車禍 就拼肇事率低
台積電產線AI與人類就比拼誰的良率高
總之 AI目前就是拼命壓榨實用價值 希望引起變革
推 AI現階段就是跟人比拚
不思考就比google好用這麼多,會思考不就人類完了
爆
首Po看到一個影片,非新聞報導,僅創作者想法 討論蘋果揭露關於人工智能當中的最大謊言 之前也看過一個影片指出 AI無法產出指針在10:10以外的手錶![[心得] 蘋果揭露人工智能並不思考 [心得] 蘋果揭露人工智能並不思考](https://p16-sign-va.tiktokcdn.com/tos-maliva-p-0068/o4LfaEAbvSdAleefUAAA4aFxvfTANdCxALQihf~tplv-photomode-video-share-card:1200:630:20.jpeg?dr=14555&refresh_token=e9192c61&x-expires=1781535600&x-signature=Q%2FzWQ3Qk0Uwsbisl4NOj8U%2BEB%2BE%3D&t=4d5b0474&ps=13740610&shp=55bbe6a9&shcp=9dfa7f7f&idc=my2&ftpl=1)
14
目前與論是這篇測試方法有問題... @@ 旁邊吃瓜中 不過作者裡面有Samy Bengio 是AI三巨頭 Yoshua Bengio的弟弟 他們蘋果在去年底之前也發過類似風格一篇 說LLM推里有問題59
大語言模型(LLM)它的原始目的是要「模仿人類回答出人類看得懂的答案。」 但跟人類的語言不同,你我使用的與言語表達會是一系列的文字規則, 例如「主詞,動詞,受詞」的SVO結構。 但模型本身並不是這樣學習的,它是把你看到的字,拆成詞素(token) 然後將這些詞向量化,變成一系列數列:9
這不是常識嗎??? 你用LLM最常看到的不就免責條款 你有沒有想過 為什麼那些免責條款需要存在 僅僅是因為現在技術力不足???![Re: [心得] 蘋果揭露人工智能並不思考 Re: [心得] 蘋果揭露人工智能並不思考](https://i.ibb.co/KxjdpPQS/Screenshot-2025-06-16-05-59-00-273-com-openai-chatgpt.jpg)
26
1. 首先 , 蘋果是最沒資格說話的 先看看蘋果AI的鳥樣 2. 蘋果 : 人工智能不能思考 這句話有很大的問題 現在的AI主流是經由大量資料訓練4
發完原文之後,我嘗試讓gemini模擬自己是嬰兒 一個一歲的嬰兒,他什麼都不懂 然後我把圍棋組放到他眼前,他會做出什麼反應? 首先他用狀聲詞咿咿啊啊搭配敘述構成畫面 我提示他並沒有溫度、軟硬、數量、大小任何概念5
蘋果要讓AI變強當然是難 不然siri早變強了 蘋果要找AI毛病當然是容易的多 其實改進AI的人也常常發現各種毛病 只是不一定會針對毛病作為研究成果發表 發表側重點不一樣罷了1
問題是人類大腦難道就不是這樣思考的嗎? 大腦也是區分語言模組 負責特殊功能的區塊受損 可能導致聽得懂 說不出來 看到懂 卻聽不懂4
我覺得大家對AI要求過多了 設想一個情況 中餐的廚師 他們如何學習廚藝? 答案是21
是這樣的 蘋果這一步棋其實是下對的 只專注在用戶體驗上 從10年前開始 從電動車 元宇宙 到AI
46
Re: [閒聊] 米哈遊因《原神》“抽卡機制不明朗”被鳴潮的時候好像有聊過 原神卡池、或是現在普遍講的米式卡池 不是簡單的伯努力分布(非米式卡池,單純SSR機率1%這種) 而是類似這種怪東西: (免得有人誤會,這是網友推論,來源在圖上,原神沒公布過)![Re: [閒聊] 米哈遊因《原神》“抽卡機制不明朗”被 Re: [閒聊] 米哈遊因《原神》“抽卡機制不明朗”被](https://i.imgur.com/kxAoM2Hb.jpg)
29
Re: [討論] OpenAI GPT o1模型OpenAI 最近推出了 GPT-o1,但很多人可能還沒意識到這件事的嚴重性。事實上,OpenAI 已經找到了一條通往 AGI(通用人工智慧)的階梯!這個新模型的關鍵在於,它已經整合了 ToT(思維樹)和 RL(強化學習),在大型語言模型(LLM)領域達到了類似 AlphaGo Zer o 的水準。 很多人以為 LLM 就是個「刷題機器」,記住了大量的資料,所以我們在人類記憶力上輸了![Re: [討論] OpenAI GPT o1模型 Re: [討論] OpenAI GPT o1模型](https://i.ytimg.com/vi/eaAonE58sLU/sddefault.jpg)
27
Re: [閒聊] JK羅琳 超猛又開地圖砲: 這問題我知道,之前我問了一個一天到晚在網路上跟pdocast講屁話的"女權鬥士" 在他們眼裡, 所有問題都是父權遺毒。 他們會解釋一堆、引用一堆人的著作跟說明、然後告訴你這個脈絡很長,17
Re: [爆卦] OpenAI 新模型o1輕鬆考上台大資工/台大看來很多推文的人還不太了解AI有多可怕 一直聽曲博在那胡說八道 gpt4o以前的版本 是所謂的生成式ai 給定大量資料 他就會從資料找規則 並建立模型 有了模型就能預測答案 以上講了落落長 簡潔回答 那就是gpt4o版本以前 採用「歸納法」思考11
Re: [問卦] 招名威:板橋孩子有自殘撞牆顫抖 戒斷症臨 : 你可能會覺得說,小孩子不聽話,鬼吼鬼叫,哭鬧,這很正常,「對」,家長一開始也 覺 : 但是,自從他進幼兒園的這1年半起,他不斷會自殘,撞牆、掐自己、拔頭髮、咬指甲 ,?9
Re: [討論] 假設勢利的台女有95%不才忝為四大資工金融雙碩 現在當自宅資料工程師 大概糾正一些錯誤 ※ 引述《safelove (安全的愛)》之銘言: : 統計學來說, : 常常用5%當作「顯著差異」的分界,6
Re: [問卦] DeepSeek成本這麽低的原因是啥?沒有錯, 成本除了 “訓練微調出模型”,還有”應用時推論營運成本” 1. 訓練主要跳過 SFT, 2. 推論營運的成本就是雲端假設大家的應用成本,也同時帶動本地假設的可能。 所以我 Mac M2 Max,有 64GB ram,跑 DS 70B 速度還不錯,30B 完全舒服。2
Re: [問卦] 自由時報笑了:Deepseek準確度超低聽說資訊準確率超低, 那麼為什麼會震撼美國? 昨天猜想的可能原因,再貼一次。 整理一下: 分兩個部分來說,![Re: [問卦] 自由時報笑了:Deepseek準確度超低 Re: [問卦] 自由時報笑了:Deepseek準確度超低](https://i.imgur.com/r066Tiwb.jpeg)
1
Re: [新聞] 高房價造成年輕人不婚不生? 內政部秀數據無住宅婚生反而高過有住宅者,本身就跟常識不太符合, 也因此如果統計上確實得到這樣的結論,就要先嚴格檢視一下,是不是哪裡出錯? 例如1.檢視分母的定義,理論上共組家庭,應該是夫妻只有要一人有自宅就應該算在有住宅的人, 不然就會出現上post所說的狀況, 或者2.有沒有可能無住宅婚生的人,其中有些住在父母名下的宅邸?![Re: [新聞] 高房價造成年輕人不婚不生? 內政部秀數據 Re: [新聞] 高房價造成年輕人不婚不生? 內政部秀數據](https://i.imgur.com/KtxINVhb.jpg?fb)