PTT評價

Re: [新聞] ChatGPT的「幻覺」根本無法解

看板Stock標題Re: [新聞] ChatGPT的「幻覺」根本無法解作者
xa9277178
(楓曦)
時間推噓46 推:58 噓:12 →:375

※ 引述《breeze0817 ()》之銘言:
: 原文標題:
: 技術專家:ChatGPT的「幻覺」根本無法解決
: 原文連結:
: https://reurl.cc/N0KRy6
: 發布時間:
: 2023/08/09 15:58
: 記者署名:
: 鉅亨網新聞中心
: 原文內容:
: 掀起 AI 浪潮的 ChatGPT 儘管可以協助解決很多事情,但也因為會產生虛假的訊息,或: 誤導性的內容,產生「人工智慧幻覺」(hallucinations) 而飽受批評,專家認為這種「: 幻覺」受到技術與需求之間的限制,根本無法被解決。
: 財富網中文網報導,與 ChatGPT 或其他 AI 聊天機器人相處足夠長的時間,很快就會發: 現它們有時會「編造答案」,這種現象被稱為「幻覺」,即機器人做出的捏造或純粹的編: 造,對於那些試圖讓 AI 系統編寫文檔並完成工作的企業、組織甚至學生,這是一個致命: 的問題。
: 聊天機器人 Claude 2 的製造商 Anthropic 共同創始人 Daniela Amodei 認為,現在沒: 有任何一種模型能夠完全避免產生幻覺,因為它們的設計初衷只是用來預測下一個單詞,: 因此模型肯定會有一定的錯誤率。
: 包括 ChatGPT 的製造商 OpenAI、Anthropic 及其他大型語言模型的 AI 系統主要開發者: 都表示,他們正努力讓這些系統變得更準確,但目前尚不清楚需要多長時間才能達到足夠: 的可靠性。
: 不過,華盛頓大學計算語言學實驗室的主任、語言學教授 Emily Bender 認為,「這個問: 題無法完全解決,因為技術與實際需求之間存在固有的不匹配。」
: Google 已向新聞機構推銷一款新聞寫作 AI 產品,而作為與 OpenAI 合作的一部分,美: 聯社也在探索使用這項技術,而 OpenAI 正在付費使用美聯社的部分存檔文本來改進其 A: I 係統。因此,生成式 AI 的可靠性至關重要,麥肯錫全球研究院(McKinsey)預計,這: 將為全球經濟帶來相當於 2.6 兆至 4.4 兆美元的收入。
: 心得/評論:
: chatGPT訪問量一再下滑
: 一窩蜂投資ai伺服器去訓練語言模型的
: 越來越有元宇宙的fu糗了
: 散戶:這次不一樣!!


純論AI的話 這個問題是一定可以被解決的

討論chatGPT肯定是無解 頂多提升準確度 提升到你認知不到「錯覺」

我自己是覺得用錯覺這個詞來闡述這個問題 好像滿奇怪的

簡單思考一下就知道了

假設AI是個人 他肯定會有他自己的認知

他的認知來自於他的資料庫

但誰能保證資料庫裡面的資料100%是對的?

畢竟資料庫的資料也是人為產出,或是他的開發者灌入的

最終都會限縮於:「什麼是對的」的這個命題

並且有一個很弔詭的事情是這樣的

「你憑什麼認為AI給出的答案是錯的,便稱作幻覺,難道就是基於人類的共同認知嗎?」

這個東西討論到後面就變成哲學問題了,所以不贅述。

但核心概念是這樣

一個人,老師,教授,都會有認知錯誤,都會出錯,為什麼人工智能不會

基於什麼樣的原因,你覺得他能掌握100%的真理,這樣想想不就知道了

但是基於網速科技提升,資料處理能力加強,程序優化肯定能再進步

回歸前面所說的,只要把AI的範圍侷限性拉大,就能提升正確率阿

比如你設定這個AI就叫做金融投資機器人,甚至叫做台灣金融投資機器人

並且串聯所有台灣銀行、投資平台、各大當鋪的內部資料

那肯定是強的沒話說。


你期待一個AI機器人,能貫通世界上所有領域的事情,給你都是正確的答案

那肯定是不切實際。


更何況一定一堆人是這樣:「請給我一個完美的python程序。」

「幹,你這個根本不完美」

你自己都定義不出來,都不知道什麼叫做完美了,AI怎麼可能會知道

你怎麼連話都說不清楚~


我自己是覺得AI很神啦,沒有戰文組的意思,但對於邏輯思考,表述能力不好的人來說

可能不好用

我在某平台上面,買了好幾次程式課,每次都沒有耐心看完,把作業做完。

chatgpt用了兩三天,已經弄出了兩個簡單的小程式,改善我工作上面的需求

平心而論,我就算認真把課程都上完,自己寫,寫個1個月,大概都弄不出來。

AI最強大的,就是他給你的資訊裡面,是有一定程度的正確率的,

你本來就要能分辨,什麼東西對你有用,然後再引導他幫助你,給出更多有用的資訊,

最後幫助你完成你的目標。

--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 220.136.194.220 (臺灣)
PTT 網址

y2468101216 08/10 10:26他這個幻覺是幻覺一些很明顯的是

我舉個簡單的例子給你聽 我們弄個AI加法機器人,並且只接受0~3,4個數字 那麼這個機器人的正確率 就是100%

※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:28:41

y2468101216 08/10 10:27比如日本二戰被兩顆原子彈轟炸,他會有機率說錯

y2468101216 08/10 10:28回歸到程式面的話,簡單的程式也會幻覺。

y2468101216 08/10 10:29比如一個程式函數只接受一個參數,他會寫兩個

Isopod 08/10 10:29你是不是不知道它幻覺產生的內容是什麼?有一些根本

Isopod 08/10 10:29錯誤的離譜。而且當你跟他要參考資料時,好一點會跟

Isopod 08/10 10:29你說它理解錯了。可怕一點的會生成不存在的參考資料

Isopod 08/10 10:29出來

Isopod 08/10 10:30他根本不是只參考資料庫給答案,是給出根本不在資料

Isopod 08/10 10:30庫中自己幻想的答案

承上述加法機器人的例子 你key了4和5進去,他會告訴你9 但也有可能,你key柯+大麻進去,他會回答你無罪 所以就看你有沒有要賦予他「創造」的能力 你要說他的思辨結果是不對的,一樣是看後面的演算法怎麼設定的

※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:33:37

strlen 08/10 10:32生成不存在的東西 這個人類最拿手的勒 打開電視隨便

shawkwei 08/10 10:324909新復興營收月增跟年增都100%

strlen 08/10 10:33轉一間新聞台都是生成不存在的東西R XD

Isopod 08/10 10:34我覺得你要先把你的程式課上好,再來討論耶QQ

你就 去用 加法機器人就好了嘛 是不是肯定不會錯

strlen 08/10 10:34股板一堆財經新聞 你能分辨哪些是真哪些是假嗎 嘻嘻

kkithh 08/10 10:35敎授那等級的人會知道他講的話是不是準確,就算表

kkithh 08/10 10:35面堅持是準確但內心會有底,但AI目前根本無法判斷

kkithh 08/10 10:35自己講的內容是否準確

strlen 08/10 10:35齁齁 所以你就能判斷你眼前看到每件資訊都為真嗎XD

kkithh 08/10 10:36所以你會看到它一本正經在講幹話

範圍縮限就能解決這個問題 因為chatgpt目前的設定範圍,是無限

IBIZA 08/10 10:36會說是幻覺, 就是因為這些不是資料生成

kkithh 08/10 10:36我會知道我不確定阿,知道差別嗎?

strlen 08/10 10:36每天晚上隨便打開一台政論節目 不也都在講幹話

strlen 08/10 10:37收視率還高到要命 大家愛看得要死 XDDDDD

IBIZA 08/10 10:37比方說 他叫他寫程式, 他會丟給一個不存在的套件

IBIZA 08/10 10:37一本正經的用這個套件開發程式碼

※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:38:18

IBIZA 08/10 10:37這已經不是錯不錯的問題

strlen 08/10 10:38你跟不同信仰跟政治的人說話 感覺根本想平行宇宙

strlen 08/10 10:38怎麼 判斷你的說法是正確 他的說法是錯誤?

IBIZA 08/10 10:38你先了解一下為什麼會用「幻覺」來形容

我理解會什麼叫做幻覺 也理解錯誤和無中生有的差距 但只是因為他對於人類共同認知的答案 在不熟悉的環境下 有不精準的回答 這個回答來自於他的資料庫不夠精準 也來自於他的程式設計有問題 你要解決所謂幻覺 暴力破解法就是載入所有的問題和答案 但極端例子來說 11111111111111111111111111+1111111111111111111111111111 他可能就回答不了你了

z7956234 08/10 10:39大型網頁版siri,一樣撈資料回答一樣會出錯,都一

z7956234 08/10 10:39樣。

strlen 08/10 10:39要捏造一個不存在的東西 這個人類更拿手 而且生活中

※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:41:15

IBIZA 08/10 10:39人類也會有類似的錯覺, 例如曼德拉效應之類的

Isopod 08/10 10:39設定的範圍怎麼會是無限,就是餵給他的資料而已。雖

Isopod 08/10 10:39然龐大但不是無限。

據我所知 ghatgpt並沒有縮限 可以問他什麼問題 頂多犯法類型的東西 他會告訴你不能回答 而不是他不會回答

strlen 08/10 10:39這種案例比你想像中的還要多 你用google搜也不一定

strlen 08/10 10:39正確 一堆內容農場東拼西湊 wiki也是亂寫一通

yuzulee 08/10 10:39推文都滿溫和的耶...

Isopod 08/10 10:39文章嘴文組,結果自己對於AI的理解也是幻想

twistfist 08/10 10:40老師教授可以直接說這我也不確定,ai 會不懂裝懂

a12838910 08/10 10:40超導呼...

strlen 08/10 10:40正確性這種東西 人類自己都沒辦法保證了 還要求才剛

strlen 08/10 10:40有點小發展的AI

IBIZA 08/10 10:40幻覺跟正確性不完全是同一個議題

Isopod 08/10 10:40那個str也在亂扯,就是知道瞎掰不對,所以才希望AI

Isopod 08/10 10:41不要瞎掰。

IBIZA 08/10 10:41政論節目的幹話 大多數還是在有所本的基礎上扭曲

※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:42:05

strlen 08/10 10:41問題在於 你怎麼定義瞎掰?

IBIZA 08/10 10:41事實來的 AI的幻覺就不知道哪來的

ab4daa 08/10 10:41無罪

Isopod 08/10 10:41他可以根據資料庫理解錯誤,這是可以修正的。但是瞎

Isopod 08/10 10:41掰不存在於資料庫的東西,這個就是現在的問題

strlen 08/10 10:41你先定義瞎掰是什麼 我們再來談瞎掰對不對嘛 合理阿

strlen 08/10 10:42我就說即使你用google 上面一堆東西也都瞎掰

IBIZA 08/10 10:42我想我前面已經對於AI幻覺有很清楚地描述

stosto 08/10 10:42Ai 大部分都是最佳近似解….到底要怎麼不講幹話

strlen 08/10 10:42但google搜尋就沒用了嗎?你打開電視上面一堆假新聞

IBIZA 08/10 10:42瞎掰的範疇很大 有所本跟無所本 是兩回事

IBIZA 08/10 10:42瞎掰的範疇很大 有所本跟無所本 是兩回事

strlen 08/10 10:42那新聞就通通可以關一關了是嗎

Isopod 08/10 10:43是呀 就是因為有不懂裝懂的人自己胡扯呀

stosto 08/10 10:43一堆幹話連人類都講不出來

IBIZA 08/10 10:43假新聞也是 在有所本的新聞上亂寫 跟 報導一則完全

IBIZA 08/10 10:43虛構的新聞是兩回事

這是哲學問題 因為你覺得他無所本 他認為他有所本 說到底 就是程式問題 一樣是範圍設定的問題 只要能限縮知識範圍的框架 這個問題一定會減少很多 幻覺來自於 創造力 基本的程式都有一定的創造力 AI只是更人性化 讓你覺得他有幻覺而已

strlen 08/10 10:43AI的瞎掰當然也是有所本啊 它的模式跟人一模一樣

※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:45:03

IBIZA 08/10 10:43就跟你說 AI幻覺 是無所本

aynmeow5566 08/10 10:43問題是無中生有捏造資料 為了湊答案捏造論文出處 要

aynmeow5566 08/10 10:43他驗算等號左邊明顯不等於右邊還能說是相等的 快點

aynmeow5566 08/10 10:43解決啦

strlen 08/10 10:43人要瞎掰 不就是東拼西湊 假新聞和政論名嘴也是

SiFox 08/10 10:43瞎掰扯謊憑空幻覺,只要有0.001%的可能,AI就玩完

IBIZA 08/10 10:43我前面舉的例子你看了嗎

IBIZA 08/10 10:43我前面舉的例子你看了嗎

strlen 08/10 10:44一本正經瞎掰 你去看看LBJ嘛 收視多好 資訊都正確嗎

stosto 08/10 10:44Ai核心都是資料集小辦法去生成一個f(x), 你就算帶

stosto 08/10 10:44入一個從未出現的x大部分也都可以得到一個y

Isopod 08/10 10:44沒有人說AI沒有用,只是在討論他瞎掰的問題有點嚴重

Isopod 08/10 10:44。就像google出來的東西,很多也是垃圾,所以才要使

Isopod 08/10 10:44用者才要自己找方法判讀。但AI目前沒有辦法找方法判

Isopod 08/10 10:44讀自己輸出的資料是不是瞎掰的。這樣你懂嗎

我一直都知道這個事情哦 所以我也只是說 這個問題不需要討論 因為他本身就是必然的

stosto 08/10 10:45這個y扯不扯是另外一回事,幻覺就是這個y

SiFox 08/10 10:45政客扯謊帶來多少美好崇景,謊言搓破帶來多少痛苦

ckp4131025 08/10 10:45AI會自創api很正常啊,因為人類也會

ckp4131025 08/10 10:45咁,這個api沒有嗎,我以為會有

SiFox 08/10 10:45人類有政客就夠了,不需要AI來自尋煩惱甚至帶來毀滅

stosto 08/10 10:45一堆人不懂演算法在那邊扯幻覺

IBIZA 08/10 10:45對 人類也會無中生有 但目前無法理解為什麼AI會

IBIZA 08/10 10:46而且無法解決 所以只好縮限AI回答能力

stosto 08/10 10:46就不是無中生有,而是帶入一個x以他建造出來的模型

stosto 08/10 10:46就是會丟出一個y給妳

※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:47:08

deadair 08/10 10:47我問他變形記他跟我講悲慘世界 整個不知道在幹嘛XD

這個我覺得你有在扯 你應該是前後文沒有定義清楚 他在回答你前面的東西吧

IBIZA 08/10 10:47曼德拉效應我不知道大家知不知道

※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:48:11

Isopod 08/10 10:47不在資料集裡的y就是我們在討論的幻覺啦,自己說從

Isopod 08/10 10:47資料集生成,啊生成資料集以外的結果怎麼說?

stosto 08/10 10:48給你兩組x,y 讓你求一元一方程式,非資料集內的x帶

stosto 08/10 10:48入後就是會幫你算出y

strlen 08/10 10:48反駁不了我就惱羞喔 XD

strlen 08/10 10:48事實是 我們的現實本來就被巨大的假資訊包圍

stosto 08/10 10:48你會說這個y是幻覺?

Isopod 08/10 10:49已經說了,他可以回答錯誤,這只是演算法不夠強。但

Isopod 08/10 10:49這跟產出不存在的資料是兩回事

你可以看我第二次回文的內容

strlen 08/10 10:49然後我們的認知不想承認這件事實

IBIZA 08/10 10:49deadair那個例子還不算

strlen 08/10 10:49不然你看看對岸就知道 你看看他們的現實和你的一不

strlen 08/10 10:49一樣嘛

strlen 08/10 10:50現實的假資訊跟AI給的一樣 半真半假 你敢說你分得出

IBIZA 08/10 10:50我不知道是你一直要講現實要幹嘛 有人說人不會無中

IBIZA 08/10 10:50生有嗎?

IBIZA 08/10 10:50人當然是會

※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:52:19

Isopod 08/10 10:50str真的來亂的,直接忽略就好

stosto 08/10 10:50Ai就只是個求函數的演算法、而目前很少演算法可以

stosto 08/10 10:50求出現實環境的完美函數

IBIZA 08/10 10:50你餵假資料給AI AI當然也是會吃了假資料回答你假

IBIZA 08/10 10:51資料的內容 問題就不是假資料啊

Isopod 08/10 10:51stosto至少還是在討論問題

stosto 08/10 10:51所以求得的都是逼近函數

strlen 08/10 10:51你根本反駁不了就說人家來亂喔?不然你解釋一下怎麼

SiFox 08/10 10:51假資訊讓AI學習,AI再扯謊一下,是打算讓世界多亂?

strlen 08/10 10:51解決現實裡的假資訊

stosto 08/10 10:51而逼近函數就是以資料集去逼出來的

IBIZA 08/10 10:51@stosto 其實要說一切都是函數結果當然是可以

SiFox 08/10 10:51更別說,不用假資訊的狀況下AI就會扯謊了

strlen 08/10 10:52然後你再來想想要怎麼解決AI給的假資訊 這才合理吧

stosto 08/10 10:52你有假資料本來就會把一個不錯的函數帶偏

Isopod 08/10 10:52現在是在討論現實世界假資訊?你根本沒弄懂命題就不

Isopod 08/10 10:52要在那邊吵。

IBIZA 08/10 10:52問題就是現在連專家都不知道為什麼會這樣

專家不可能不知道啦= =

strlen 08/10 10:52AI是現實的資料進去生成的對吧 那何以保證現實資料

※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:52:53

stosto 08/10 10:52但在處理大資料也會去過濾假資料

strlen 08/10 10:52的的正確性

IBIZA 08/10 10:52@stosto 你講的東西其實對於認識這件事情毫無幫助

tony15899 08/10 10:53wiki之前有個自己編出一段古俄羅斯史的 很像這種

IBIZA 08/10 10:53專家要是知道就不會有這篇新聞了 好嗎

SiFox 08/10 10:53對!最麻煩、最可怕的是"不知道為什麼"

我是不相信什麼不知道為什麼 根本一堆記者喜歡搞這種天網既似感

※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:54:03

Isopod 08/10 10:53如果把假資料給AI,他當然就以這個假資料產出結果,

Isopod 08/10 10:53但是這還是「有所本」。目前的問題是,他所產出的資

Isopod 08/10 10:53料,並不在餵給他的資料裡

SiFox 08/10 10:53光這點,AI基本無法發展

IBIZA 08/10 10:53目前就是不知道為什麼會這樣 所以只好縮限AI回答能

IBIZA 08/10 10:53力 避免AI幻覺

stosto 08/10 10:54原文是說無法解決而非不知道問題點

strlen 08/10 10:54現實的假資訊不會影響到AI嗎 你確定嗎

SiFox 08/10 10:54專家就是因為不知道,才僅能用"幻覺"來形容狀況

herculus650208/10 10:54光要分辨哪裏有錯就搞死你,自動產生程式根本科科

Isopod 08/10 10:54所以現在討論的不是,把假資料餵給AI產出的奇怪答案

Isopod 08/10 10:54叫幻覺。而是不知道為什麼會產出根本不在資料集的東

IBIZA 08/10 10:54你相信不相信都改不瞭現況

Isopod 08/10 10:54西。

你神化了這個所謂不存在的資料 如果你把所有的幻覺結果拿出來看 對照背後的運行規則 一定可以找到解釋 那不然啦 只有一個可能 就是運算複雜度達到某個層次的時候 這個世界法則會賦予這個客體「靈魂」 你他媽在跟我寫小說484= =

strlen 08/10 10:54命題沒有問題啊 不然你確定餵給AI的東西100%正確嗎

※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:56:51

stosto 08/10 10:55所有做ai 的如果不知道會有這種無中生有的問題可以

SiFox 08/10 10:55不知道問題點,請問該怎麼解決? XD

stosto 08/10 10:55回去重修了

Isopod 08/10 10:55目前AI幻覺真的找不太到原因,AI演算法基本上是個黑

Isopod 08/10 10:55盒子,中間運算過程很難追蹤

IBIZA 08/10 10:55這邊講得不知道 指的是不知道為什麼發生 而不是不

a8521abcd 08/10 10:55那根本不是資料庫問題,就是chatgpt 自己在瞎掰

stosto 08/10 10:55幻覺這件事情就只是錯誤率而已

IBIZA 08/10 10:55知道會發生這種情況

IBIZA 08/10 10:55不是錯誤率而已

Isopod 08/10 10:56我覺得sto講的是錯誤答案,不是我們在討論的幻覺

stosto 08/10 10:56這東西就一定會發生 到底是多專家才覺得不會發生

SiFox 08/10 10:56黑盒子形容的很貼切。這就是AI無法發展的原因

strlen 08/10 10:56無中生有不就是人類思考的特性之一?

IBIZA 08/10 10:56到底多專家 這一篇就是大學系主任?

strlen 08/10 10:57AI是不是就是以模仿人類為目標?

IBIZA 08/10 10:57ChatGPT的專家也說過類似的話

max2604 08/10 10:57我問他

strlen 08/10 10:57那就這一點 AI還真的達到目標了勒 XD

stosto 08/10 10:57在文字拓撲學裡的網路大成這樣,你函數在某一段錯

stosto 08/10 10:57誤後面會偏離的很嚴重

Isopod 08/10 10:57@strlen 就算是資料有問題,那也是根據資料產生的回

Isopod 08/10 10:57答,雖然答案是錯誤的,但是就過程而言是正確的,這

Isopod 08/10 10:57是資料的問題。但現在的問題是他沒有根據資料,自己

Isopod 08/10 10:57創造了答案。這樣你清楚問題了嗎?

max2604 08/10 10:58桃樂比是誰,他給我回答其他東西XD

stosto 08/10 10:58這明明大家都知道,現在扯不知道幻覺怎麼出現

SiFox 08/10 10:58只要有黑盒子存在,機器人三法則必然無效。

max2604 08/10 10:58然後問他六位數加法他兩次答案不一樣

你這個太胡扯我真的不信 你貼個6位數加法 兩次回答不一樣來看看

※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:59:16

ji3g4zo6 08/10 10:58https://i.imgur.com/6C7jFzQ.jpg 這就是幻覺好嗎

ji3g4zo6 08/10 10:58跟資料庫有什麼關系?

從這個你可以看出預設 1.假定使用者資料為真 2.以這個假設從資料庫尋找有可能的答案 不就如此而已嗎 不然你去問open AI工程師 他是不是這樣寫的

SiFox 08/10 10:59所以AI發展到盡頭,僅會是假裝有人性的一團混亂

※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 11:00:45

Isopod 08/10 10:59原子彈那個就是我們在討論的幻覺。當然一定是演算法

Isopod 08/10 10:59本身有問題,但就是不知道為什麼會有這樣的問題

IBIZA 08/10 11:00之前還有一個例子

IBIZA 08/10 11:00有一個律師用ChatGPT產生出庭文件

IBIZA 08/10 11:00律師看內容覺得沒問題就提交出去

IBIZA 08/10 11:00但文件裡面用來論述主張的判例不存在

IBIZA 08/10 11:01ChatGPT幻想出了一個案件的詳細情況 當作判例

Isopod 08/10 11:01從資料庫找可能答案,但沒找到就應該產出沒有。而不

Isopod 08/10 11:01是自己編造一個回應。

ji3g4zo6 08/10 11:01不懂幻覺的人 建議去看一下李宏毅教授的課

tony15899 08/10 11:01https://reurl.cc/zYnryy 這個

ckp4131025 08/10 11:02生成式AI並不是基於資料查詢的AI, 所以不設限制的

ckp4131025 08/10 11:02話甚至連算數都不會

kqalea 08/10 11:02抱歉~ Yann LeCun 早就講過~只靠語言沒法完全理解

IBIZA 08/10 11:03我前面講的那個套件的例子, 是有人要chatGPT用pytho

IBIZA 08/10 11:04n開發一個程式, chatGPT就給了他一個基於OOOO套件的

IBIZA 08/10 11:04程式, 內容看起來都沒問題, 但要去找oooo套件來安裝

IBIZA 08/10 11:04就不存在這個套件

stkoso 08/10 11:05這個缺點大家都知道 但只要利大於弊就會有人用

IBIZA 08/10 11:05如果你不太能理解這個問題, 這就好像你要chatGPT用

stkoso 08/10 11:05從神經網路剛開始發展的時候就知道的事情

IBIZA 08/10 11:06外語寫一封信, 結果chatGPT告訴你它用阿里不達國語

IBIZA 08/10 11:06寫, 而且還真的寫出來了

IBIZA 08/10 11:07但不存在這國語言, 自然內容你也無從理解

leo12516090908/10 11:07公三小

ji3g4zo6 08/10 11:07阿假設資料為真 後面的答案不就是幻覺了 還是連歷

ji3g4zo6 08/10 11:07史這種事情都可以發揮想像力來回答?

IBIZA 08/10 11:07這個跟之前wiki上的假俄羅斯歷史有點類似

stosto 08/10 11:08你用兩組資料求出y=ax+b 然後說不在這兩組x就不能

stosto 08/10 11:08求出y, 天才

GAIKING 08/10 11:09這命題不就跟美國某個律師用ai抓判例,結果ai提供

GAIKING 08/10 11:09的完全就是自己生成而不是真的有這個東西,然後律師

GAIKING 08/10 11:09不知道還拿去用出大事

Isopod 08/10 11:10chatgpt就是不是算數學AI,他不是只是一個簡單函式

Isopod 08/10 11:10好嗎

stosto 08/10 11:10所有的ai都在求function…..

stosto 08/10 11:11就說在求逼近函數

stkoso 08/10 11:11當年愛迪生為了打擊交流電整天喊會電死人

stosto 08/10 11:11要求函數的話資料集一定有限

stkoso 08/10 11:11直到今天都還有人會被電死 但是呢?

stosto 08/10 11:12為的就是得到非資料集的答案

stosto 08/10 11:12現在要限縮?

stosto 08/10 11:14現在終於懂為什麼當初唸書的時候一堆人np 問題的精

stosto 08/10 11:14髓不會用

Isopod 08/10 11:15哥 你該學新東西了

Isopod 08/10 11:15基本上你講的沒錯,但不是大家正在討論的東西…

SiFox 08/10 11:16不要看做人工智能AI,事實上就是資料彙整生成軟體

SiFox 08/10 11:16這個資料生成軟體自由發揮的空間很高,甚至會幻想

SiFox 08/10 11:16這樣就夠了~ 哈哈阿

csqeszzz 08/10 11:19有個重點是,人一般會有自己可能說錯的自覺,也有

csqeszzz 08/10 11:19意識到對某事缺乏了解的能力,對此一般人會承認自

csqeszzz 08/10 11:19己的錯誤或無知,與之對話者就更能夠合作去尋求解

csqeszzz 08/10 11:19答,但chatgpt缺乏這樣的自覺與承認的能力,它只會

csqeszzz 08/10 11:19一直唬爛下去。這不是單純說錯話而已。

josephroyal 08/10 11:20半瓶水響叮噹

Jiming 08/10 11:20去修資工AI,會了解更多

stkoso 08/10 11:23機率分布沒有明顯的峰值時就代表很有可能出錯了

stkoso 08/10 11:24人要做的是根據結果來調整閾值

Mchord 08/10 11:27哪有什麼幻覺不能解決的,就沒訓練好而已

stosto 08/10 11:28很難有完美的模型,所以一定會有他們所謂的幻覺

laechan 08/10 11:29就算是真正的人也會虎爛你,你又怎麼判斷真偽呢?

kanx 08/10 11:30也不是沒訓練好, 限制不能有幻覺, 就變成多元回歸了

ji3g4zo6 08/10 11:34stkoso說的是對的 不調整根本沒辦法避免幻覺 跟資

ji3g4zo6 08/10 11:34料庫一點關係也沒有

afrazhao 08/10 11:36講的超好,一堆人一直在吵有沒有錯誤,但憑什麼你認

afrazhao 08/10 11:36為的錯誤就是大家的錯誤?這個對錯、完美是誰的標準

afrazhao 08/10 11:36建立的,換了一個人來看是不是本來的正確跟完美又是

afrazhao 08/10 11:36被充滿瑕疵?

Isopod 08/10 11:40看來樓上認為3顆原子彈是完美的答案呢

afrazhao 08/10 11:41現在的幻覺是不是建立在AI變成一個討好人格?? 不

afrazhao 08/10 11:41急於事實提供建議.... 如果是的話這真的要認真去思

afrazhao 08/10 11:41考有沒有可以改善的方式

GoalBased 08/10 11:41幻覺和回答錯誤是兩回事,你說加法,數學問題,結果

GoalBased 08/10 11:41不一樣就錯誤,但幻覺不是這個意思

IBIZA 08/10 11:46以數學舉例的話

IBIZA 08/10 11:46所謂的錯誤, 指的是四則運算的結果不對

IBIZA 08/10 11:46幻覺的話是chatGPT告訴你有加減乘除以外的第五種

IBIZA 08/10 11:47運算, 而且還用這種運算算出結果給你

artning 08/10 11:51AI的問題是表面效度太高了—即使他的答案根本就是瞎

artning 08/10 11:51掰,仍然必須真的對這題本來就很了解的人才能辨識。

SiFox 08/10 11:52自學習資料擴張生成軟體,這是目前AI真面目

GoalBased 08/10 11:52你可以說是演算法不夠好或者資料來源不夠乾淨導致他

GoalBased 08/10 11:52的回答”錯誤”,但這種錯誤對大部分的人來講就叫做

GoalBased 08/10 11:52幻覺

SiFox 08/10 11:52幫助幻想瞎掰,或合成圖像很好用

SiFox 08/10 11:53幫忙去馬賽克也很有效率

SiFox 08/10 11:56應用到對的產業,也是不錯啦

la8day 08/10 11:58比較好的解決方式是:不知道就說不知道

la8day 08/10 11:58但他現在就做不到

SiFox 08/10 11:59問題就再,如果說"不知道"也是在迎合人類 (說謊

SiFox 08/10 12:00黑盒子存在AI就不可能發展,但可以拿來應用別的領域

ck8861103 08/10 12:01三顆原子彈是因為你駁回他的回答啊 chatGPT不是wiki

SiFox 08/10 12:01所以好玩就好,對AI別太認真

ck8861103 08/10 12:02AI哪管這是不是歷史事實 她只知道你不喜歡這答案

Isopod 08/10 12:02用過chatgpt的會知道,一般情況下反駁他也沒用吧。

Isopod 08/10 12:02至少我的使用經驗是這樣啦

a77520601 08/10 12:03我也覺得你不太了解實際的狀況,他都自信但但的捏造

a77520601 08/10 12:03出一些不存在的數據和細節、規則。很多的錯誤是有根

a77520601 08/10 12:03據的、有因果或是有人為判斷的錯誤,可以檢討、修正

a77520601 08/10 12:03。畢竟人類短時間還是很難把判斷交給AI,但如果今天

a77520601 08/10 12:03你詢問GPT一些事情他會憑空的編造完全不存在的事並

a77520601 08/10 12:03且說的非常合理,包含研究機構、報導、統計通通憑空

a77520601 08/10 12:03編造,你得自己查證過一遍,任何使用GPT尋找根據的

a77520601 08/10 12:03作法都是不可靠的,但Bing目前用起來這個問題就很少

strlen 08/10 12:04我講完整一點 AI的問題其實要分成兩個層面 一個是

strlen 08/10 12:04假資訊 一個是無中生有 後者會影響到前者 但後者卻

strlen 08/10 12:04也同樣是目前大型生成式語言模型所追求的 如要希望

strlen 08/10 12:04夠精準的資訊 就要降低無中生有的能力 但無中生有

strlen 08/10 12:04卻正好是本次突破性的特色 不然其實只是想要一個能

strlen 08/10 12:04用自然語言提問的百科全書 那ChatGPT也不會爆紅了

strlen 08/10 12:04無中生有這個特點的確是兩面刃 但光是這樣 很多情

strlen 08/10 12:04境下就已經非常好用了 新聞裡提出的問題是精準度問

strlen 08/10 12:04題 這個其實不難解

potionx 08/10 12:04https://youtu.be/SOAbgV07IH8?t=227

CYL009 08/10 12:04看到第二段開頭就知道可以結束惹 你對AI 的認知還太

CYL009 08/10 12:04

potionx 08/10 12:05可以稍微上課一下 看看台大怎麼教學的

SiFox 08/10 12:06別太糾結,我已經找到最佳應用領域 去馬賽克

SiFox 08/10 12:07我可以接受去馬賽克後,不夠精準,但有像就夠了

SiFox 08/10 12:10我相信大家都可以接受,手指頭稍微扭曲或變六隻

SiFox 08/10 12:11OK的

jasperhai 08/10 12:13結果看來文組理組都看不下去XD

ptta 08/10 12:14你完全理解錯誤

ptta 08/10 12:15不是訓練資料的正確性的問題

ku399999 08/10 12:15我就問你什麼科系學什麼的 哪來一堆推論

strlen 08/10 12:21最後還是看你的需求 如果你今天要的是 問AI他就得

strlen 08/10 12:21回答一個可靠精準不唬爛的答案 那你要的就是百科全

strlen 08/10 12:21書 那至少現在ChatGPT無法 因為唬爛在某些情境之下

strlen 08/10 12:21是很有用的 它設計取向包山包海 無法兼顧 我認為最

strlen 08/10 12:21後目標是像bing AI使用者自行選精準度高的AI 或是

strlen 08/10 12:21無中生有超愛唬爛的AI吧

a77520601 08/10 12:24還有那個六位數加法會不一樣是真的,不只6位數,舉

a77520601 08/10 12:24凡任何數理邏輯規則的演算都會亂講,1+1都會算錯。

a77520601 08/10 12:24我曾試著訓練AI做會計,到後面真的矇了,全憑幻想

strlen 08/10 12:26但講是這樣講 現階段當然是沒做到很好 所有人都還

strlen 08/10 12:26在趕工調整 確實達不到需求 當然這也是股價還有想

strlen 08/10 12:26像空間的理由 要是都發展得差不多了就是糕點喇

FCPEWN375 08/10 12:26如何避免人類滅亡? AI:監禁人類

strlen 08/10 12:27ChatGPT中的幻想 是特色之一啊 特別是創意類文案

strlen 08/10 12:29所以今天就變成 跟創意相關產業人士就覺得神讚 但

strlen 08/10 12:29想要百科全書的人就該該叫 合理啦

strlen 08/10 12:30光是adobe的那個AI修圖補圖 真的超神超好用

Samurai 08/10 12:30AI不會無中生有,但是會從資料庫拼湊出不正確的資

Samurai 08/10 12:30

chigo520 08/10 12:32事實上亂產資料不是人類最愛幹的科科 應該反而要害

chigo520 08/10 12:32怕 ai越來越人性化了

benjamin831208/10 12:35AI 跟 公式推導本身就是不一樣的東西,AIV出來的東

benjamin831208/10 12:35西就不是100%一樣,是一個信心度的問題,現在就是AI

benjamin831208/10 12:35對原資料做了未知的剖析,根本不是參照資料有沒有假

benjamin831208/10 12:35的問題

sharline101308/10 12:35我是拿我自己整好的資料請他減少冗句和分段,就會發

sharline101308/10 12:35現他完全誤解其中一段的主題然後亂湊,但別人乍看真

sharline101308/10 12:35的看不出來

manysheep 08/10 12:41大家也太溫和 你根本整個搞不清狀況 還扯到哲學

niburger100108/10 12:43gigo

manysheep 08/10 12:43先搞懂甚麼是機器學習好嗎 一直是說是給程式的問題

manysheep 08/10 12:43跟資料庫正確率無關 是機器學習後果就會產生的憑空

manysheep 08/10 12:44虛造 跟人類會話唬爛一樣 跟你這篇會不懂裝懂硬扯一

manysheep 08/10 12:44

strlen 08/10 12:47唬爛為主場的應用情境

philip81501 08/10 12:47你商家數據資料 總要最新的為主吧

strlen 08/10 12:49她回答不了 有差嗎 大家就是要看AI pon

mcroplet 08/10 12:50AI只能是工具,不能是人性

MinuteMan 08/10 12:57人家就只是個LLM一直要他變人

a30332520 08/10 13:04我問灌籃高手哪隊是全國冠軍

a30332520 08/10 13:04他回答灌籃高手主角是流川楓

a30332520 08/10 13:04湘北高中是全國冠軍,大言不慚的唬爛…

a30332520 08/10 13:07然後我說湘北就打輸愛和了哪有全國冠軍,他又回答

a30332520 08/10 13:07山王才是全國冠軍,這是不是幻覺

adonisXD 08/10 13:08就是有人故意餵不存在的錯誤資料啊

adonisXD 08/10 13:08誰跟你幻覺

adonisXD 08/10 13:08不信你去餵韭菜DPP清廉勤政愛鄉土

adonisXD 08/10 13:08久了韭菜就回你DPP清廉勤政愛鄉土

a30332520 08/10 13:08我又說山王在第二場就打輸湘北了

a30332520 08/10 13:08他又回答全國冠軍是翔陽…

adonisXD 08/10 13:08一樣道理啊

strlen 08/10 13:08https://i.imgur.com/6fa1FE8.png 你要是百科全書啊

a30332520 08/10 13:09樓上,請問我問的網路上沒有一個資料顯示過翔陽拿

a30332520 08/10 13:09過全國冠軍喔,這資料哪來的?

strlen 08/10 13:09只是要可用自然語言提問的百科全書 簡單很多

strlen 08/10 13:10就是全部去尻搜尋資料比對 最多出現的 基本就是答案

a30332520 08/10 13:10這就是所謂幻覺,如果再更深一點的問題,你甚至會

a30332520 08/10 13:10相信AI,會不會成為災難就不知道了

strlen 08/10 13:10但如果只是這樣 今天chatGPT就很無聊 也不會爆紅

strlen 08/10 13:11對 是無中生有的幻想 但這就是他暴紅的特點

strlen 08/10 13:12你需要的是精準的AI百科全書 ChatGPT目前無法做到

strlen 08/10 13:12但我認為這只是設計取向不同而已 不算什麼大問題

strlen 08/10 13:14ChatGPT大概也不是以百科全書為目標的

swgun 08/10 13:47引出不存在的判決書內容或字號就是錯的阿 怎麼取得

swgun 08/10 13:47人類法官

swgun 08/10 13:47 取代

imhanhan 08/10 13:57好幾次誤導gpt,他竟然就開始跟著附和我XDD

SapiensChang08/10 14:30能夠輔助人類使用的ai大概需要客製化啦

SapiensChang08/10 14:30但必須要說 能夠達到輔助人類使用 覺得很堪用到有龐

SapiensChang08/10 14:30大的商業價值 大概至少5年內不會發生 但我認為是10

SapiensChang08/10 14:30年內 再來覺得幻覺能夠被解決這件事 就是外行人的幻

SapiensChang08/10 14:30想而已

SapiensChang08/10 14:31我發現很多ai迷信者都會在那堅信ai有天什麼事都會被

SapiensChang08/10 14:31解決 但說真的就跟外星人被發現一樣現在就是莫名其

SapiensChang08/10 14:31妙的低能論調

SapiensChang08/10 14:33舉例來說 ai現在都無法判讀人類文字情緒了 連那麼基

SapiensChang08/10 14:33本的事 ai都做不到 是要怎麼克服後面根本稍微難 但

SapiensChang08/10 14:33對人類大概是呼吸等級的事

nrxadsl 08/10 14:58沒哦,他最基本的連續十個亂數作加總平均都會錯哦,

nrxadsl 08/10 14:58而且你還可以糾正他,拿錯的糾正他還會謝謝你

nrxadsl 08/10 14:59其實你還可以第二次第三次糾正他,他到最後會反覆給

nrxadsl 08/10 15:00你一樣的答案,直到最後他肯定的那個還是錯的,我有

nrxadsl 08/10 15:00截圖下來

jamesho8743 08/10 15:15先定義什麼叫AI幻覺吧 AI的答案本來就依照模型選出

jamesho8743 08/10 15:15最高機率的回答的‘’近似‘’答案 本來就是在編造

centaurjr 08/10 15:34你根本不懂新聞在講啥吧,我今天問你床前明月光誰做

centaurjr 08/10 15:35的,除了考試合理地回答應該是李白或是不知道選一個

centaurjr 08/10 15:36你絕對不可能回答甚麼諸葛亮對吧...AI會

centaurjr 08/10 15:36這就叫幻覺 懂? 資料庫沒有輸入他自己聯想的幻覺

jamesho8743 08/10 15:42chatgpt 本來就是超高級的文字接龍 高級到有時你覺

jamesho8743 08/10 15:42得他有智慧 那是因為它是去近似訓練它的人類文本

jamesho8743 08/10 15:42 有時又覺得它在瞎扯 因為岳飛就是岳飛 少一個字都

jamesho8743 08/10 15:42不行

kyo55966 08/10 15:43我因為有在釣魚,曾經問過一些氣象紀錄,比如某地

kyo55966 08/10 15:43歷史最高溫、日出時間、滿潮時間,而這些理論上都

kyo55966 08/10 15:43能查到正確的紀錄,潮汐懂規律也可以推算,可是gpt

kyo55966 08/10 15:43常常給我最新2023的數據,我問資料庫不是只有到2021

kyo55966 08/10 15:43 ?他就回對不起,2023不是紀錄不是推算,完全是瞎

kyo55966 08/10 15:43掰…那會不會過去某一年其實也是瞎掰?問紀錄查不

kyo55966 08/10 15:43到不是留白而是欺騙,這不是政治立場或人也會說謊

kyo55966 08/10 15:43的問題,期待AI對這類基礎的問題回答正確且誠實應

kyo55966 08/10 15:43該不算太高要求

kilhi 08/10 16:10AI幻覺是網軍問題 看看民進黨操作

blackstyles 08/10 17:02隨便問電影劇情就會產生幻覺了啦 笑死 有夠難用

blackstyles 08/10 17:06問A答B 根本創作文了 笑死

blackstyles 08/10 17:06https://i.imgur.com/x1p9uZ3.jpg

k12151215 08/10 18:12

jamesho8743 08/10 21:18你才不懂AI是啥吧? AI哪來資料庫? 笑死人先去搞懂A

jamesho8743 08/10 21:18I是啥 你以為AI是靠資料庫來回答問題的嗎? 那資料庫

jamesho8743 08/10 21:18要多大? AI只有訓練庫 訓練出來的是一個複雜函式權

jamesho8743 08/10 21:18重 它是能回答任何問題的 亦即給定任何一輸入 它都

jamesho8743 08/10 21:18會有輸出 它的輸出準確率本來就不是百分之百的 即

jamesho8743 08/10 21:18使AlphaGo ChatGPT 用非常大量且高品質的資料訓練

jamesho8743 08/10 21:18 相比於整個空間還是非常微小 你問它床前明月光 它

jamesho8743 08/10 21:18本來就可能會回答諸葛亮或任何人名 人類回答問題是

jamesho8743 08/10 21:18靠正確理解 AI回答是靠機率 靠貼近它所訓練的資料

jamesho8743 08/10 21:18 它只是依照你的上下文選出一連串最可能的一個一個

jamesho8743 08/10 21:19字 這本來就是瞎扯 本來就是幻覺 只是當大部分回答

jamesho8743 08/10 21:19看起來都很順很合理時 你覺得沒問題 但是不合理的

jamesho8743 08/10 21:19例子還是會很多 懂? 這時你就可以看出AI只是拼字

jamesho8743 08/10 21:19 而不是"真正"理解 但它依然實用 為何?當你逼近百

jamesho8743 08/10 21:19分之九十九的九九時 不管它是不是真正理解 就行為

jamesho8743 08/10 21:19來說跟真正理解也差不多了

jamesho8743 08/10 21:40本文裡已經不就說的很清楚了嗎? 現在沒有任何一種

jamesho8743 08/10 21:40模型能夠完全避免產生幻覺 因為它們的設計初衷只是

jamesho8743 08/10 21:40用來預測下一個單詞 其實根本就沒有什麼"幻覺" 那是

jamesho8743 08/10 21:40對一般外行人的說法 也沒有什麼編造答案 它本來就是

jamesho8743 08/10 21:40在編答案只是有時對有時錯

jamesho8743 08/10 21:54前面有人講的很對 所謂幻覺就只是錯誤率而已 幻覺這

jamesho8743 08/10 21:54個詞是人類用法 這個錯誤率是不可避免的 一個是你訓

jamesho8743 08/10 21:54練樣本有限 第二個是目前的演算法跟模型正確率還不

jamesho8743 08/10 21:54夠高

jamesho8743 08/10 22:12你問它原子彈丟幾顆? 它回答可以是3顆 2顆 5顆或任

jamesho8743 08/10 22:12何常用的數字 這表明它就不是用什麼資料庫來回答

jamesho8743 08/10 22:12 而是每一次問它都可能會有些許不同