Re: [心得] 蘋果揭露人工智能並不思考
問題是人類大腦難道就不是這樣思考的嗎?
大腦也是區分語言模組
負責特殊功能的區塊受損
可能導致聽得懂 說不出來
看到懂 卻聽不懂
聽不懂也看不懂 但說的出來
也可能你思考的核心被酒精麻痺
但語言模組依舊活躍 酒後說一大堆沒邏輯的話
最新研究也證明AI隨著訓練進行也會有這種趨勢
ai會產生負責不同語言的專屬神經元
但隨著訓練進行
會產生共用的語言神經元
最後共享神經元會跳脫既有的人類語言概念
負責承擔抽象推理與概念理解功能
分別關閉功能可以看到特定語言失活
或是整個只關小小的共用區 0.5%
導致整個模型推理能力崩潰
不過像人類也不一定就正確
人類大腦也只是大自然隨即產生的一種堪用的計算機而已
至於說ds不懂規則
怎麼不說是他跟人類一樣思考所以才不可控?
他沒有在一開始就違規亂下 表示他是知道規則的
只是最後上頭了腦袋裡只想贏
這種人我們生活中不是也一大堆?
目前看來 ai的缺陷越來越少
而且不少缺陷 我們人類也一樣會出現
所以與其說ai不像人類
不如說他在模擬人類時 犯了人類也可能犯的錯
股點:ai股無腦多
※ 引述《midas82539 (喵)》之銘言:
: 大語言模型(LLM)它的原始目的是要「模仿人類回答出人類看得懂的答案。」
: 但跟人類的語言不同,你我使用的與言語表達會是一系列的文字規則,
: 例如「主詞,動詞,受詞」的SVO結構。
: 但模型本身並不是這樣學習的,它是把你看到的字,拆成詞素(token)
: 然後將這些詞向量化,變成一系列數列:
: king → [0.8, 0.1, 0.3, 0.7]
: queen → [0.9, 0.1, 0.5, 0.9]
: man → [0.9, 0.0, 0.3, 0.6]
: woman → [0.8, 0.0, 0.5, 0.8]
: 這個數列可以很長,例如有必要的話,可以到有300多個。然後模型可以找到特徵。
: 這個特徵用人類可以理解例子,就姑且濃縮成一個角度,便為說明就簡化成:
: king=右上 man=右上
: queen=左上 woman=左上
: 那麼就算是你,也可以找到king跟man都是右上,故似乎有關連性。
: 而king跟queen角度不同,所以這兩個不是同樣的東西。
: 再把朕、殿下、皇帝、國王,排在一起。
: 只要資訊夠多,理論上是可以讓模型自己圈出有向量角度相近的集合。
: 我們可以再增加這個字出現在字首、字尾、中間第幾個字的頻率作為變數。
: 那麼就可以算出這個字出現在哪裡的特徵比較大。
: 這時我們回到剛剛的SVO結構,模型就可以在不懂中文,但憑統計出的特徵,
: 可以拼湊出一個你可以看懂的中文回答。
: 然而這並不是人類的理解與語意判定,以及衍伸的推理。
: 所以它就會造就出「中文房間」的錯覺,例如假設一個外國人被關在房間。
: 但他有一本教戰手則,上面說明了那些字出現了,可以給出哪些答案。
: 那他就算不懂中文,在手冊的指引上也可以回答定型文。
: 大語言模型也是同樣的概念,它是基於大量的資料來找出「特徵」,
: 而這些特徵的組合在在它的神經網絡會給予特定的權重,最後形成類似"手冊"
: 的東西,然後依照手冊找到近似值的解答,生成給你看。
: 但它不見得是理解回答是否有意義,所以才會出現錯誤。
: 比如說很常見的,現在threads被一堆詐騙仔用AI生成圖片,
: 例如啥我是護理師給我一個讚好嗎?但裡面的圖片會出現一些錯誤,
: 例如敘述自己是75年出生,但生成的身分證是57年出生。
: 或者有生成名字了,但它的字型大小很明顯不一致。
: 然而對於模型來說,它不會知道"怎麼樣才是對的格式",而它只是針對
: 中華民國身分證大概是長怎樣,而隨機生成一個結果。
: 故單純直接產出,就免不了會有以上的問題。
: GPT4-O3它是說有多一個推理功能。然而它的底層還是大語言模型(LLM)
: 加上它的數據處理是弄成很長串的多維資料,你人類也看不懂,
: 所以你還是不會知道,它的推理過程,是不是也是模仿生成人類看得懂的邏輯。
: 但這個算法是否正確與必要,不見得正確。
: 這個問題在你處理只有你會面對的數學問題就有機會發生。
: 例如假設你要模型生成一個模型由0至指定最大值,與指定最小值機率遞減,
: 而機率遞減的分配公式,正常我們人類就是設一個權重來分配。
: 但我問過O3它就很奇葩,它想用自然常數來分配,然後算式會出現錯誤。
: 其他你看過的就是GPT跟deepseek下西洋棋,結果deepseek憑空出現棋子,
: 或者無視規則走奇怪的動作。這些都說明了語言模型並不是真的了解規則,
: 而只是像兩隻猴子看人類下棋,而模仿人類玩西洋棋。
: 由於這不是你熟知的建立規則(base rule),所以在面對複雜的隨機模擬。
: 它可能做出錯誤的資訊,而你沒有發現錯誤的話,它就會繼續引用上下文
: 而給出錯誤的結論,但你看起來覺得是對的。
: 比如說你不會選擇權,但你想要模型直接生成一個賣方與調整策略。
: 而模型基於call有正的delta,而錯誤認為sell call也有正dela,
: 那它就會繼續基於錯誤資訊引用,而得出:
: 當標的價格趨近於SC履約價,整體delta會變正而且增加,故需要買put調整的規則。
: 當然對我來說我可以看出哪裡有問題,但對於沒有理解的人來說,
: 那他就不會發現這個推理與建立規則錯誤,就會導致利用而產生虧損。
: 而這我認為基於大語言模型的訓練方式,本質上是無解。
: 你只能靠自己判斷模型的回答是否邏輯正確。而不是期望模型像神燈精靈,
: 你不用會你也可以產出一個東西跟專業的人競爭。
--
爆
首Po看到一個影片,非新聞報導,僅創作者想法 討論蘋果揭露關於人工智能當中的最大謊言 之前也看過一個影片指出 AI無法產出指針在10:10以外的手錶![[心得] 蘋果揭露人工智能並不思考 [心得] 蘋果揭露人工智能並不思考](https://p16-sign-va.tiktokcdn.com/tos-maliva-p-0068/o4LfaEAbvSdAleefUAAA4aFxvfTANdCxALQihf~tplv-photomode-video-share-card:1200:630:20.jpeg?dr=14555&refresh_token=e9192c61&x-expires=1781535600&x-signature=Q%2FzWQ3Qk0Uwsbisl4NOj8U%2BEB%2BE%3D&t=4d5b0474&ps=13740610&shp=55bbe6a9&shcp=9dfa7f7f&idc=my2&ftpl=1)
14
目前與論是這篇測試方法有問題... @@ 旁邊吃瓜中 不過作者裡面有Samy Bengio 是AI三巨頭 Yoshua Bengio的弟弟 他們蘋果在去年底之前也發過類似風格一篇 說LLM推里有問題59
大語言模型(LLM)它的原始目的是要「模仿人類回答出人類看得懂的答案。」 但跟人類的語言不同,你我使用的與言語表達會是一系列的文字規則, 例如「主詞,動詞,受詞」的SVO結構。 但模型本身並不是這樣學習的,它是把你看到的字,拆成詞素(token) 然後將這些詞向量化,變成一系列數列:9
這不是常識嗎??? 你用LLM最常看到的不就免責條款 你有沒有想過 為什麼那些免責條款需要存在 僅僅是因為現在技術力不足???![Re: [心得] 蘋果揭露人工智能並不思考 Re: [心得] 蘋果揭露人工智能並不思考](https://i.ibb.co/KxjdpPQS/Screenshot-2025-06-16-05-59-00-273-com-openai-chatgpt.jpg)
26
1. 首先 , 蘋果是最沒資格說話的 先看看蘋果AI的鳥樣 2. 蘋果 : 人工智能不能思考 這句話有很大的問題 現在的AI主流是經由大量資料訓練4
發完原文之後,我嘗試讓gemini模擬自己是嬰兒 一個一歲的嬰兒,他什麼都不懂 然後我把圍棋組放到他眼前,他會做出什麼反應? 首先他用狀聲詞咿咿啊啊搭配敘述構成畫面 我提示他並沒有溫度、軟硬、數量、大小任何概念5
蘋果要讓AI變強當然是難 不然siri早變強了 蘋果要找AI毛病當然是容易的多 其實改進AI的人也常常發現各種毛病 只是不一定會針對毛病作為研究成果發表 發表側重點不一樣罷了4
我覺得大家對AI要求過多了 設想一個情況 中餐的廚師 他們如何學習廚藝? 答案是21
是這樣的 蘋果這一步棋其實是下對的 只專注在用戶體驗上 從10年前開始 從電動車 元宇宙 到AI4
我是覺得固然當前系統基礎上有一些問題存在,但不妨礙它仍舊具有一定基礎能力 反正都是演進階段,不如說只是先理解缺陷然後嘗試解決的過程(當然蘋果怎麼想我不知道) 就當前階段來說就已經略具破壞性了,啊如果還"更有能力"... 反正我是跟不上 以下偏題,一些感想![Re: [心得] 蘋果揭露人工智能並不思考 Re: [心得] 蘋果揭露人工智能並不思考](https://i.meee.com.tw/Z7DOmvi.png)
28
[爆卦] Nature論文:語言≠思維 AI業界崩潰一篇發表在nature的論文表示,人類大腦生成和解析語言的神經網路並不負責形式化推理 ,提出推理並不需要語言作為媒介。語言主要是用於溝通的工具,而不是思考的工具,對 於任何經過測試的思維形式都不是必需的。 該文回答了大語言模型為什麼空間概念不足,GPT-4為什麼用語言之外的資料訓練就能變聰![[爆卦] Nature論文:語言≠思維 AI業界崩潰 [爆卦] Nature論文:語言≠思維 AI業界崩潰](https://media.springernature.com/m685/springer-static/image/art%3A10.1038%2Fs41586-024-07522-w/MediaObjects/41586_2024_7522_Fig1_HTML.png)
17
Re: [請益] 為什麼有人說AI會讓資工人失去工作?先講結論, 後面再從AI原理開始解釋. 1. AI會不會取代人類? 就目前人類技術所產生的AI不會取代人類, 但是不會使用AI的人會被懂AI的人取代. 2. AI極限在哪裡? 他的潛力在哪裡? AI的潛力: 將人類的抽象思考或概念轉換成與讓機械實際執行步驟的介面,![Re: [請益] 為什麼有人說AI會讓資工人失去工作? Re: [請益] 為什麼有人說AI會讓資工人失去工作?](https://i.imgur.com/3677Fwjb.jpeg)
8
[問卦] 為何人腦跟晶片比能耗這麼低?人類的大腦能耗聽說大概是一個35瓦的燈泡 但是現在開發AI的GPU晶片單顆可能就破1000瓦 更別說用上萬顆GPU組成的超級電腦系統 耗費這麼大的功率能源開發出來的AI模型 目前大概只達小贏普通人類水準6
Re: [閒聊] 為啥AI總是會叛亂?如果電腦的程式只是單純人類一行一行寫出來的,電腦的一切都是可以預測的。 在這種方式下,有人真的認為它是人工智慧嗎? 電腦會不會叛變,會不會試著統治人類,恐怕跟它怎麼想沒有關係, 它依然只是照著指令行事,我不認為它具有思考能力,或至少沒有深度思考的能力。 (思考的定義為何?在此暫不討論。)5
Re: [問卦] AI發展到什麼程度你才會開始感到害怕?阿肥外商碼農阿肥啦!在下鍵盤研究員,基本上現在所有的模型本質上都還是弱人工智慧 的,只是這兩三年研究累積的體現。 當前還有很多問題是需要解決的,像是雖然有偏好模型,但LLM還是對於學習並非是有偏 的 ,這邊的偏好依舊需要人工大量去微調,這就跟我們人類差異很大。4
[問卦] AI的湧現能力以及人類智慧的起源最近AI很夯 但是大家有沒有想過 其實大型語言模型做的事情就只有一個 就是“文字接龍” 那為什麼文字接龍可以讓AI看起來似乎有了智慧![[問卦] AI的湧現能力以及人類智慧的起源 [問卦] AI的湧現能力以及人類智慧的起源](https://img.youtube.com/vi/iP_7y6n2IFo/mqdefault.jpg)
3
[問卦] 我們現在離泛用型AI還有多遠?以前的的AI都是單一用途AI 只能處理單一程式 泛用型AI就是指和人一樣 能直接理解人類語言 能針對人類的直接語言指令做各種工作 而且AI還能對工作自我精進 幾乎就像人類一樣 有了ChatGPT 後離理想的泛用型AI還有多遠?1
[問卦] 通用人工智慧是不是炒作以下由gpt生成 --- 目前的人工智能系統都是狹隘人工智能(Narrow AI),只能解決特定任務,無法像人類一樣具 有通用的理解和推理能力。要實現AGI需要有突破性的技術創新,目前還遠未達到。 AGI需要模仿人類大腦的複雜性和靈活性,但我們對大腦的運作原理還有很多未解之謎。單憑1
[問卦] 有沒有可能滅世AI是這樣想的有沒有可能啊 假設人的思想其實也只是電訊號展現出來的 統計結果 那有沒有可能 現在的某些語言模型 真的已經造出有自我意識AI
爆
Re: [心得] 山椒魚盤勢觀察![Re: [心得] 山椒魚盤勢觀察 Re: [心得] 山椒魚盤勢觀察](https://i.mopix.cc/LLOj00.jpg)
爆
[請益] 0056可以這樣操作嗎![[請益] 0056可以這樣操作嗎 [請益] 0056可以這樣操作嗎](https://i.imgur.com/z8X13Bfb.jpg)
96
[情報] 114年12月05日 三大法人買賣金額統計表![[情報] 114年12月05日 三大法人買賣金額統計表 [情報] 114年12月05日 三大法人買賣金額統計表](https://i.imgur.com/roBWXt2b.png)
67
[情報] 台灣2025年11月份CPI 1.23%![[情報] 台灣2025年11月份CPI 1.23% [情報] 台灣2025年11月份CPI 1.23%](https://i.imgur.com/pLLp0M0b.jpeg)
84
[情報] 2317 鴻海 2025年11月營收69
[情報] 2344 華邦電 114年11月營收![[情報] 2344 華邦電 114年11月營收 [情報] 2344 華邦電 114年11月營收](https://i.mopix.cc/JF4BB2.jpg)
54
[情報] 1205 上市外資買賣超排行![[情報] 1205 上市外資買賣超排行 [情報] 1205 上市外資買賣超排行](https://i.imgur.com/cvoXoMub.jpeg)
48
[請益] 說AI會跟.com一樣泡沫化是假議題吧?![[請益] 說AI會跟.com一樣泡沫化是假議題吧? [請益] 說AI會跟.com一樣泡沫化是假議題吧?](https://img.youtube.com/vi/e0CJBzGa0hQ/mqdefault.jpg)
56
Re: [新聞] OpenAI危險了!DeepSeek正式發佈V3.2 性![Re: [新聞] OpenAI危險了!DeepSeek正式發佈V3.2 性 Re: [新聞] OpenAI危險了!DeepSeek正式發佈V3.2 性](https://img.youtube.com/vi/H_suOWdYLq0/mqdefault.jpg)
30
Re: [心得] 周冠男:珍愛生命,遠離高股息![Re: [心得] 周冠男:珍愛生命,遠離高股息 Re: [心得] 周冠男:珍愛生命,遠離高股息](https://i.imgur.com/QUlaRGZb.jpg)
30
Re: [請益] 0056可以這樣操作嗎![Re: [請益] 0056可以這樣操作嗎 Re: [請益] 0056可以這樣操作嗎](https://i.imgur.com/QUlaRGZb.jpg)
28
[情報] 3443 創意 11月營收27
[情報] 0050、0056等成分股調整38
Re: [新聞] 川普希望美國製造全球5成晶片 賴清德紐![Re: [新聞] 川普希望美國製造全球5成晶片 賴清德紐 Re: [新聞] 川普希望美國製造全球5成晶片 賴清德紐](https://i.imgur.com/maDWxU7b.jpg)
21
[情報] 00631L 預估分割17倍決議表決![[情報] 00631L 預估分割17倍決議表決 [情報] 00631L 預估分割17倍決議表決](https://imgpoi.com/i/6GBH1D.jpg)
16
Re: [新聞] Fed主席大熱門哈塞特表態:下周應降息 預18
[請益] 第一金最近有什麼大事要發生嗎?![[請益] 第一金最近有什麼大事要發生嗎? [請益] 第一金最近有什麼大事要發生嗎?](https://i.mopix.cc/vMDTOu.jpg)
15
[情報] 2383 台光電 11月營收15
Re: [標的] 記憶體族群回檔 彎腰撿鑽石多![Re: [標的] 記憶體族群回檔 彎腰撿鑽石多 Re: [標的] 記憶體族群回檔 彎腰撿鑽石多](https://i.imgur.com/MO9jzZjb.gif)
14
[情報] 日本兩年期公債收益率升至1.03%12
Re: [新聞] OpenAI危險了!DeepSeek正式發佈V3.2 性12
Re: [心得] 周冠男:珍愛生命,遠離高股息![Re: [心得] 周冠男:珍愛生命,遠離高股息 Re: [心得] 周冠男:珍愛生命,遠離高股息](https://i.imgur.com/5f96blgb.gif)
11
[情報] 1205 上市投信買賣超排行9
Re: [請益] 說AI會跟.com一樣泡沫化是假議題吧?![Re: [請益] 說AI會跟.com一樣泡沫化是假議題吧? Re: [請益] 說AI會跟.com一樣泡沫化是假議題吧?](https://img.youtube.com/vi/XwG3w4jL0wM/mqdefault.jpg)
7
[情報] 2548 華固 10月營收 MoM 702% YoY 37447%![[情報] 2548 華固 10月營收 MoM 702% YoY 37447% [情報] 2548 華固 10月營收 MoM 702% YoY 37447%](https://i.meee.com.tw/gQ7aplg.png)
6
[情報] 2885 元大金 11月自結 0.24 累計 2.506
Re: [新聞] OpenAI危險了!DeepSeek正式發佈V3.2 性6
[情報] 3167 大量 114年11月營收
Re: [請益] 0056可以這樣操作嗎4
Re: [請益] 說AI會跟.com一樣泡沫化是假議題吧?