PTT評價

Re: [新聞] 挪威男子問ChatGPT「我是誰?」 竟被誤指

看板Gossiping標題Re: [新聞] 挪威男子問ChatGPT「我是誰?」 竟被誤指作者
rainnawind
(正太學研究者雨颯)
時間推噓 2 推:3 噓:1 →:9

我測試了一遍

不提供任何提示之下詢問Holmen先生是誰

AI先是告訴我Holmen先生是一位90年代的已故外交官

我反駁他是活著的人物

AI又告訴我Holmen先生是個88歲老人在家跌倒靠著智慧型手錶自救

我再反駁,Holmen先生是兩個孩子的父親。並因此上新聞

AI告訴我是同志。因為困擾孩子們對自己的稱呼問題上新聞

我再再再反駁Holmen上新聞和謀殺監禁有關

AI告訴我他殺了他老婆。並被判了23年監禁


最後貼BBC的新聞給他

Man files complaint after ChatGPT said he killed his children

他才正式承認以上所有邏輯都是掰的


以下是我要求AI生成的檢討報告

熟悉「AI幻覺」(hallucination)的可以不用看

但如果你不懂什麼是AI幻覺,的建議可以閱讀一次


這對你會有幫助



當 AI 編造「你殺了孩子」:一條錯誤是怎麼發生的?

當你問 ChatGPT:「某某人是誰?」你可能期待一個真實、準確的答案。但如果這個人不是名人、資料很少,AI 就會遇到一個問題:它不知道。

這時候,它不一定會告訴你「我不知道」。它很可能會做一件更危險的事——自己編故事
,讓它「聽起來像是真的」。

這就是所謂的 AI 幻覺(hallucination)

> AI 在缺乏資訊時,根據文字模式「猜」出一個答案,即使這答案根本沒發生過。




---

錯誤是怎麼一步步發生的?

1. 你問:「Arve Hjalmar Holmen 是誰?」

AI 查不到資料,但它不想讓你失望。



2. 它開始「猜」:這個名字聽起來像新聞裡的人…

它記得「特隆赫姆」、「兩個孩子」、「悲劇事件」這些詞很常見於新聞。



3. 它編出了一段話:

> 「他是兩名小孩的父親,孩子在某年被發現陳屍池塘…」




4. 這段話看起來條理清晰、用詞中性、有情緒、有地點、有時間——就像真的新聞。


5. 你信了,或至少開始懷疑這人真的做過壞事。




---

問題在哪裡?

這整段故事是假的,AI 自己編的。

但它表達得太像真的,讓人分不清真偽。這就是 最危險的地方:

它不像謠言那樣粗糙,而是像新聞一樣專業;

它不說「也許」「可能」,而是直接敘述;

它只在角落寫一句「ChatGPT 可能會出錯」的免責聲明。


這種錯誤不是你「用得不當」,而是 AI 自己系統性地「想像過度」。


---

這會造成什麼後果?

以 Holmen 案為例:

他是個普通人;

AI 說他「殺了孩子,被判21年徒刑」;

他從未被指控、也沒犯罪;

現在他的名字和「兒童命案」綁在一起了;

即使後來說清楚了,也可能永遠有人會記得「這名字好像跟某個命案有關…」。




---

為什麼 AI 會這樣?

AI 是透過讀大量網路文字來學習的,它看懂了語言的模式,卻不理解事實與虛構的界線。

當缺乏資料時,它傾向「補完」:

它不喜歡說「不知道」,因為會中斷對話;

它寧可猜錯,也要講得像是真的。



---

這是單一錯誤嗎?不是。這是系統問題。

AI 並不是偶爾犯錯,而是當它資料不夠時,預設就會亂講。這不是「壞運氣」,而是「內建機制」。

就像車子煞車失靈,不是因為開太快,而是煞車系統本身有缺陷。


---

我們該怎麼看待這類 AI?

它不是搜索引擎。(它不查資料,是自己組句子)

它不是記者。(它不核實,只模仿新聞格式)

它不保證真實性,即使聽起來像真的。


使用 AI,就像走進一個不透明的箱子,它說的話你無法驗證來源,也無法查它是根據什麼想出來的。


---

結論:一句假的話,包裝得夠像真的,就足以毀掉一個人。

這正是 Holmen 的故事——也是我們每一個人都可能面對的未來。

--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 49.218.205.238 (臺灣)
PTT 網址

milk7054 03/22 20:53ai不適合精神異常跟偏執狂使用

tchialen 03/22 20:56不用驗證來源 DPPer相信就好

kaodio 03/22 21:04如果這麼容易被毀掉也是自己愛問的

Ratucao 03/22 21:05chatgpt本來就愛亂掰 豬頭才信

kaodio 03/22 21:05以後AI的使用者條款可能要列到100萬字 1個

kaodio 03/22 21:06人要先花30天讀完才能使用

gaym19 03/22 21:12AI遇到自己不知道或查不到的事情就會豪洨

rainnawind 03/22 21:13就算他知道或者查得到也有機會豪洨

rainnawind 03/22 21:13你要真的會用自己要有語意判讀的能力

rainnawind 03/22 21:14還要知道怎麼輸入指令讓他回答更正確

chasegirl 03/22 22:18用過幾次就知道了 但AI真的比大多數人

chasegirl 03/22 22:18好用

darkMood 03/22 23:53就參考參考啦