Re: [心得] 蘋果揭露人工智能並不思考
※ 引述《midas82539 (喵)》之銘言:
: 大語言模型(LLM)它的原始目的是要「模仿人類回答出人類看得懂的答案。」
: 但跟人類的語言不同,你我使用的與言語表達會是一系列的文字規則,
: 例如「主詞,動詞,受詞」的SVO結構。
: 但模型本身並不是這樣學習的,它是把你看到的字,拆成詞素(token)
: 然後將這些詞向量化,變成一系列數列:
: king → [0.8, 0.1, 0.3, 0.7]
: queen → [0.9, 0.1, 0.5, 0.9]
: man → [0.9, 0.0, 0.3, 0.6]
: woman → [0.8, 0.0, 0.5, 0.8]
: 這個數列可以很長,例如有必要的話,可以到有300多個。然後模型可以找到特徵。
: 這個特徵用人類可以理解例子,就姑且濃縮成一個角度,便為說明就簡化成:
: king=右上 man=右上
: queen=左上 woman=左上
: 那麼就算是你,也可以找到king跟man都是右上,故似乎有關連性。
: 而king跟queen角度不同,所以這兩個不是同樣的東西。
: 再把朕、殿下、皇帝、國王,排在一起。
: 只要資訊夠多,理論上是可以讓模型自己圈出有向量角度相近的集合。
: 我們可以再增加這個字出現在字首、字尾、中間第幾個字的頻率作為變數。
: 那麼就可以算出這個字出現在哪裡的特徵比較大。
: 這時我們回到剛剛的SVO結構,模型就可以在不懂中文,但憑統計出的特徵,
: 可以拼湊出一個你可以看懂的中文回答。
: 然而這並不是人類的理解與語意判定,以及衍伸的推理。
: 所以它就會造就出「中文房間」的錯覺,例如假設一個外國人被關在房間。
: 但他有一本教戰手則,上面說明了那些字出現了,可以給出哪些答案。
: 那他就算不懂中文,在手冊的指引上也可以回答定型文。
: 大語言模型也是同樣的概念,它是基於大量的資料來找出「特徵」,
: 而這些特徵的組合在在它的神經網絡會給予特定的權重,最後形成類似"手冊"
: 的東西,然後依照手冊找到近似值的解答,生成給你看。
: 但它不見得是理解回答是否有意義,所以才會出現錯誤。
: 比如說很常見的,現在threads被一堆詐騙仔用AI生成圖片,
: 例如啥我是護理師給我一個讚好嗎?但裡面的圖片會出現一些錯誤,
: 例如敘述自己是75年出生,但生成的身分證是57年出生。
: 或者有生成名字了,但它的字型大小很明顯不一致。
: 然而對於模型來說,它不會知道"怎麼樣才是對的格式",而它只是針對
: 中華民國身分證大概是長怎樣,而隨機生成一個結果。
: 故單純直接產出,就免不了會有以上的問題。
: GPT4-O3它是說有多一個推理功能。然而它的底層還是大語言模型(LLM)
: 加上它的數據處理是弄成很長串的多維資料,你人類也看不懂,
: 所以你還是不會知道,它的推理過程,是不是也是模仿生成人類看得懂的邏輯。
: 但這個算法是否正確與必要,不見得正確。
: 這個問題在你處理只有你會面對的數學問題就有機會發生。
: 例如假設你要模型生成一個模型由0至指定最大值,與指定最小值機率遞減,
: 而機率遞減的分配公式,正常我們人類就是設一個權重來分配。
: 但我問過O3它就很奇葩,它想用自然常數來分配,然後算式會出現錯誤。
: 其他你看過的就是GPT跟deepseek下西洋棋,結果deepseek憑空出現棋子,
: 或者無視規則走奇怪的動作。這些都說明了語言模型並不是真的了解規則,
: 而只是像兩隻猴子看人類下棋,而模仿人類玩西洋棋。
: 由於這不是你熟知的建立規則(base rule),所以在面對複雜的隨機模擬。
: 它可能做出錯誤的資訊,而你沒有發現錯誤的話,它就會繼續引用上下文
: 而給出錯誤的結論,但你看起來覺得是對的。
: 比如說你不會選擇權,但你想要模型直接生成一個賣方與調整策略。
: 而模型基於call有正的delta,而錯誤認為sell call也有正dela,
: 那它就會繼續基於錯誤資訊引用,而得出:
: 當標的價格趨近於SC履約價,整體delta會變正而且增加,故需要買put調整的規則。
: 當然對我來說我可以看出哪裡有問題,但對於沒有理解的人來說,
: 那他就不會發現這個推理與建立規則錯誤,就會導致利用而產生虧損。
: 而這我認為基於大語言模型的訓練方式,本質上是無解。
: 你只能靠自己判斷模型的回答是否邏輯正確。而不是期望模型像神燈精靈,
: 你不用會你也可以產出一個東西跟專業的人競爭。
在現代哲學的知識論中將[知識獲得]分為兩種類型,
一種叫[內部論],一種叫[外部論]。
內部論強調的是對知識或主張背後整套理論或觀念的理解和掌握,
而外部論強調的是放棄主觀理解,以外在的權威、輿論聲量等來判別知識。
原PO說的[中文房]就是很典型的外部論,
LLM目前採用的方法就是主要透過的方式找出答案,
但是可以完全跳過所謂的[理解]。
而作為一項[工具],這其實也完全沒有問題,
但就如樓主說的,你必須有起碼的知識背景才好配合用它,
否則LLM說出的事似真實假的東西,你也看不出來,反而害更大,因為它不會說他不懂。
他是負責給答案看看是否過關的中文房內的機器人,他不負責[理解]。
這並非說AI發展毫無處理[理解],之前的深藍、阿法狗等已經在圍棋方面屌打人類,
但是他這套演算法就只負責下圍棋,你叫它說話它能力是0,叫他認圖、畫圖也是0。
阿法狗跟深藍又不一樣,它不是靠暴力演算法下贏人類的,它是真的[理解]圍棋的
[邏輯]:只要你給它明確的遊戲規則,它能慢慢累積算出最佳解。
(這幕後最大的英雄我覺得是發展出那些演算法的人類)
本來LLM嘗試用一樣的[規則理解]來開發,可是碰壁,
於是後來改採歸納法為主的算法,加上[權重]、[反溯]等能力,以及人工訓練,
結果產生重大突破。
其實這種學習法也確實在某方面比較符合人類(和動物)的學習歷程,
人類的初始學習並非靠一套內洽的理論,
也是不斷的試錯、反饋,然後形成可行的模糊知識,並容許後續的修正。
認圖、畫圖AI也是一樣的,它並不(也無須)理解它在畫甚麼,
它是靠大量局部訓練過畫好的圖,組合起來,
交給人類去判斷是否過關,
如果不過關,就下次重畫,大量的反饋機制使它越畫越好。
但是它不知道自己在畫啥,你叫它畫[猴子],它只是畫出千錘百鍊的外貌,
它沒有理解[猴子]生物特性。
當然,也許語言模型跟畫圖模型串在一起,能發揮這樣的功能,我就不知道了。
當然[通用型AI]似乎仍有關鍵性的落差,
也確實其實所謂[AI]其實是個[集合稱],
負責畫圖的AI跟負責模仿語音的AI,可能除了在開發模型上有共享一些方法外,
其他方面天差地遠。
但是AI仍然有龐大的發展潛力,
因為它是由電力直接驅動的,只要給它演算法、資料,
它可以24小時不停歇的進步下去。
另一方面,更關鍵的是,它不需要全然仿照人類的智力來運作,
它只要在某些特化功能上,比人類幹得好就行了。
比如車跑得比人快、起重機舉的比人有力、風扇吹的風比人強,
AI也是一樣的道理,
其實不需用人的判準來評價它,例如自覺、思考、價值觀、情感等等的,
因為它目前主要就是[工具],而且是人發明出來的,
只是它確實潛力強大,擁有部分人類難以駕馭的潛力,
這就好像核武一樣,為善為惡其實看人的造化。
而且通用型AI很可能不是好事,
雖然AI似乎只是特化功能很強的[計算機],
但是人腦其實目前來看也是神經細胞花幾億年演化出來的,
沒有理由斷定電腦無法辦到。
而如果它辦到了,肯定是千古巨變,後面會怎樣都不知道。
扯遠了,總而言之,就算AI不會[思考]也不怎樣,
它只要某功能好用就夠了,這本來就是如何理解AI的特質和目標。
因為人腦也會犯很多錯,而且很容易累,
AI就是能把某些人類能做到的事,
用千百倍的精神做好,然後資料蒐集很快很廣,
一個任務它就幫你參照古今往來的案例丟答案給你,
對不對就靠你自己判斷了,
這樣還不夠好嗎? 已經很好了,
若還要它更好,它就要反客為主了。
--
奧茲:你可以吃一堆香蕉!
芬利:哦,我懂了,就因為我是一隻猴子,所以我一定要喜歡香蕉!
奧茲:你不喜歡香蕉嗎?
芬利:別傻了! 我當然喜歡香蕉,我可是一隻猴子!我只是不喜歡你的推論方式。
https://philog8sophia.blogspot.com/
--
那人類是怎麼理解猴子的
怎麼好像一堆人不會思考在社會也活的好好的
為啥在社會上活得好好的一定需要思考XD
1F 你確定人類理解猴子嗎
人類跟猴子也算遠古同宗室啊
我的意思是說人類怎麼理解眼前的東西是猴子的
這問題其實很有趣,牽涉到語言哲學的意義、語意問題, 語言是一種有遊戲規則但無絕對嚴格規則的活動。 用維根斯坦的話來說,像是一場遊戲。 眾人的互動形成大致共識,但是仍有創造的空間。 有一案例可以參考是哲學家Quine的 [Gavagai]案例, 即便你看到語言不同的原住名,每次看到兔子都說'Gavagai', 你也無法斷定Gavagai=兔子, 也許Gavagai的意思是白色、獵物、食物、好運..., 除非有更多參照資訊,讓你能深化理解, 但是這始終是一種非完美的歸納法。 (內部論、外部論就是Quine的主張) 人們對[猴子]的理解當然也有不同面相, 可能約定俗成,也可能是現代的基因、生物學, 但也是有生物學研究人們才知道,雞的祖先是恐龍、海豚被歸為哺乳類等等, 這些知識顯然古人不會懂,所以對一物或概念的理解顯然會隨著背景知識轉變而轉變。 根據語言學家研究,人類似乎天生內建一套語言認知系統, 只要在幼年經過適當的刺激,很快能觸類旁通, 學習使用甚至創造性使用一套語言,但是只有一套。 (母語) 簡言之,人學習概念、語言的過程適複雜的,也可能是先外部、後內部, 而這跟知識的學習路徑是類似的,先依循傳統,學而熟習之, 然後融會貫通後,就能舉一反三,一以貫之。 這與鸚鵡學語是截然相反的。 至於說判別眼前的猴子是猴子, 這應該牽涉到認知科學, 但我印象中,人類辨別能力和現在的AI應用也是有些異曲同工之妙的, 比如人類的天生的人臉辨識系統,直覺認知、經驗記憶等, 接續才是背景知識等等更複雜的認識。 人類的大腦也是多工運行的,有的鑑識表情、有的觀察細節、聲音、色澤光暗、 行動等等的,然後再形成統覺。 或是再連到概念、語言區, 總之大腦是非常奧妙的東西。
※ 編輯: jodawa (219.70.152.25 臺灣), 06/16/2025 15:31:22看到猴->大人說那是猴子->人生過程看到
各式各樣的猴子->念猴子的書籍影片
形成猴子的認知知識
內部外部,怎麼不用理性主義跟經驗主義?NLP一開始
是嘗試規制。LLM 是規則失敗只好用神經元、參數,
所以才稱為 large LM, 何來 LLM 用規則。用規則模
型就不大了。
我看過一本關於東方哲學跟人工智慧的書,是中央大
學出的書,裡面一大堆老哲學家,他們對AI對人工智
慧對生成式AI的認識都非常精準,也就是他們當哲學
家都是認真讀過才會發表的。
yes one大,內部論外部論、用理性、經驗類比頗通
推。另外目前多模態,理論上功能模型間應該會有交
互。我認為有機會再湧現新的理解
猴子不就吱吱叫個不停,喜歡吃香蕉的動物嗎?
這有很難判斷嗎 XD
寮國泰國的高山長臂猿就是呼呼叫 一輩子沒看過香蕉
爆
首Po看到一個影片,非新聞報導,僅創作者想法 討論蘋果揭露關於人工智能當中的最大謊言 之前也看過一個影片指出 AI無法產出指針在10:10以外的手錶![[心得] 蘋果揭露人工智能並不思考 [心得] 蘋果揭露人工智能並不思考](https://p16-sign-va.tiktokcdn.com/tos-maliva-p-0068/o4LfaEAbvSdAleefUAAA4aFxvfTANdCxALQihf~tplv-photomode-video-share-card:1200:630:20.jpeg?dr=14555&refresh_token=e9192c61&x-expires=1781535600&x-signature=Q%2FzWQ3Qk0Uwsbisl4NOj8U%2BEB%2BE%3D&t=4d5b0474&ps=13740610&shp=55bbe6a9&shcp=9dfa7f7f&idc=my2&ftpl=1)
14
目前與論是這篇測試方法有問題... @@ 旁邊吃瓜中 不過作者裡面有Samy Bengio 是AI三巨頭 Yoshua Bengio的弟弟 他們蘋果在去年底之前也發過類似風格一篇 說LLM推里有問題59
大語言模型(LLM)它的原始目的是要「模仿人類回答出人類看得懂的答案。」 但跟人類的語言不同,你我使用的與言語表達會是一系列的文字規則, 例如「主詞,動詞,受詞」的SVO結構。 但模型本身並不是這樣學習的,它是把你看到的字,拆成詞素(token) 然後將這些詞向量化,變成一系列數列:9
這不是常識嗎??? 你用LLM最常看到的不就免責條款 你有沒有想過 為什麼那些免責條款需要存在 僅僅是因為現在技術力不足???![Re: [心得] 蘋果揭露人工智能並不思考 Re: [心得] 蘋果揭露人工智能並不思考](https://i.ibb.co/KxjdpPQS/Screenshot-2025-06-16-05-59-00-273-com-openai-chatgpt.jpg)
26
1. 首先 , 蘋果是最沒資格說話的 先看看蘋果AI的鳥樣 2. 蘋果 : 人工智能不能思考 這句話有很大的問題 現在的AI主流是經由大量資料訓練4
發完原文之後,我嘗試讓gemini模擬自己是嬰兒 一個一歲的嬰兒,他什麼都不懂 然後我把圍棋組放到他眼前,他會做出什麼反應? 首先他用狀聲詞咿咿啊啊搭配敘述構成畫面 我提示他並沒有溫度、軟硬、數量、大小任何概念5
蘋果要讓AI變強當然是難 不然siri早變強了 蘋果要找AI毛病當然是容易的多 其實改進AI的人也常常發現各種毛病 只是不一定會針對毛病作為研究成果發表 發表側重點不一樣罷了1
問題是人類大腦難道就不是這樣思考的嗎? 大腦也是區分語言模組 負責特殊功能的區塊受損 可能導致聽得懂 說不出來 看到懂 卻聽不懂4
我覺得大家對AI要求過多了 設想一個情況 中餐的廚師 他們如何學習廚藝? 答案是21
是這樣的 蘋果這一步棋其實是下對的 只專注在用戶體驗上 從10年前開始 從電動車 元宇宙 到AI
21
Re: [分享] 用寶可夢紅版示範AI的機器學習嘗試解釋一下過去的AI和現在的AI,在「暴力」這方面本質上的差異 過去以暴力幹爆人類的棋類AI中,最有名的就是深藍 我們假設現在要請深藍用同樣的方法,嘗試在圍棋上幹爆人類 那麼所謂的「暴力求解」大概可以形容成這樣: 深藍:![Re: [分享] 用寶可夢紅版示範AI的機器學習 Re: [分享] 用寶可夢紅版示範AI的機器學習](https://img.youtube.com/vi/bHcJCp2Fyxs/mqdefault.jpg)
17
Re: [請益] 為什麼有人說AI會讓資工人失去工作?先講結論, 後面再從AI原理開始解釋. 1. AI會不會取代人類? 就目前人類技術所產生的AI不會取代人類, 但是不會使用AI的人會被懂AI的人取代. 2. AI極限在哪裡? 他的潛力在哪裡? AI的潛力: 將人類的抽象思考或概念轉換成與讓機械實際執行步驟的介面,![Re: [請益] 為什麼有人說AI會讓資工人失去工作? Re: [請益] 為什麼有人說AI會讓資工人失去工作?](https://i.imgur.com/3677Fwjb.jpeg)
13
Re: [閒聊] 我們離人工智慧的奇點已經不遠了嗎?看你定義的奇點是什麼樣子 1 專用型AI - 僅限於特定問題 → 人類目前還在這裡 a 努力達到人類中 → 目前的自動駕駛、ChatGPT 在這裡 b 在特定領域的計算力等同或遠超人類 c 在特定領域中不止於計算力,且在判斷力等抽象表現上接近或超越人類12
Re: [心得] 蘋果揭露人工智能並不思考首先啦,在公眾對於AI發展的看法,有個很有趣的現象。 就是只要AI會做了某件任務,就會直接說,這不需要"思考"。 譬如AI在二十幾年前打敗西洋棋棋王,後來華生也打敗益智節目的人類冠軍。 人們直覺反應就是這不是思考啦,西洋棋就是暴力算棋譜,益智節目背題庫就好啦。 到了十年前還有人認為AI永遠不可能擊敗人類棋王,因為圍棋不是硬靠算力可以暴力解的。9
Re: [情報] 50美元訓練出媲美DeepSeek R1大家都被訓練成本給迷惑 說穿了訓練AI就像培養人才 真正重點是"教材內容正確性",以及"學習成果的評價回饋" (就是老師要改作業) 對應的是"輸入資料正確性",並且存在"有效的回饋機制來修正權重" 資料部分雖然OpeAI/Gemini基本已經將網際網路上公開資料爬完8
Re: [問卦] AI是不是毀了圍棋?[後有Gemini所作詩一首] 您覺得這種AI的學習方式,對我們人類學習圍棋有沒有什麼啟示呢? 有,就是別浪費時間學了吧!哈哈。開玩笑的,也不能看到AI精進能力那麼可怕就完全放棄 思考的樂趣。只是圍棋沒有一種模糊的預測評估,只要在AI眼皮底下都能清楚知道自己是不 是胡扯,或者是一步錯讓自己產生誤信的幻覺,就像是只能照著標準答案來寫題目一樣。4
[問卦] AI的湧現能力以及人類智慧的起源最近AI很夯 但是大家有沒有想過 其實大型語言模型做的事情就只有一個 就是“文字接龍” 那為什麼文字接龍可以讓AI看起來似乎有了智慧![[問卦] AI的湧現能力以及人類智慧的起源 [問卦] AI的湧現能力以及人類智慧的起源](https://img.youtube.com/vi/iP_7y6n2IFo/mqdefault.jpg)
2
Re: [問卦] 為什麼AI 這2-3年進步這麼神速?近期AI成果一個很重要的因素是從 ‘‘有限’’解放到‘’無限‘’ 有了一定程度的‘‘無限’’作為能力 能做到的事顯然就變得強很多 我們可以稍微回顧一下深度學習AI的發展 2012年Nvidia的GPU被用到圖片分類問題上 其實1970年代就已經有相關技術 但是很吃算力 與其讓電腦慢慢學習特徵 不如人工研究怎麼抓特徵