Re: [新聞] ChatGPT的「幻覺」根本無法解
※ 引述《breeze0817 ()》之銘言:
: 原文標題:
: 技術專家:ChatGPT的「幻覺」根本無法解決
: 原文連結:
: https://reurl.cc/N0KRy6
: 發布時間:
: 2023/08/09 15:58
: 記者署名:
: 鉅亨網新聞中心
: 原文內容:
: 掀起 AI 浪潮的 ChatGPT 儘管可以協助解決很多事情,但也因為會產生虛假的訊息,或: 誤導性的內容,產生「人工智慧幻覺」(hallucinations) 而飽受批評,專家認為這種「: 幻覺」受到技術與需求之間的限制,根本無法被解決。
: 財富網中文網報導,與 ChatGPT 或其他 AI 聊天機器人相處足夠長的時間,很快就會發: 現它們有時會「編造答案」,這種現象被稱為「幻覺」,即機器人做出的捏造或純粹的編: 造,對於那些試圖讓 AI 系統編寫文檔並完成工作的企業、組織甚至學生,這是一個致命: 的問題。
: 聊天機器人 Claude 2 的製造商 Anthropic 共同創始人 Daniela Amodei 認為,現在沒: 有任何一種模型能夠完全避免產生幻覺,因為它們的設計初衷只是用來預測下一個單詞,: 因此模型肯定會有一定的錯誤率。
: 包括 ChatGPT 的製造商 OpenAI、Anthropic 及其他大型語言模型的 AI 系統主要開發者: 都表示,他們正努力讓這些系統變得更準確,但目前尚不清楚需要多長時間才能達到足夠: 的可靠性。
: 不過,華盛頓大學計算語言學實驗室的主任、語言學教授 Emily Bender 認為,「這個問: 題無法完全解決,因為技術與實際需求之間存在固有的不匹配。」
: Google 已向新聞機構推銷一款新聞寫作 AI 產品,而作為與 OpenAI 合作的一部分,美: 聯社也在探索使用這項技術,而 OpenAI 正在付費使用美聯社的部分存檔文本來改進其 A: I 係統。因此,生成式 AI 的可靠性至關重要,麥肯錫全球研究院(McKinsey)預計,這: 將為全球經濟帶來相當於 2.6 兆至 4.4 兆美元的收入。
: 心得/評論:
: chatGPT訪問量一再下滑
: 一窩蜂投資ai伺服器去訓練語言模型的
: 越來越有元宇宙的fu糗了
: 散戶:這次不一樣!!
純論AI的話 這個問題是一定可以被解決的
討論chatGPT肯定是無解 頂多提升準確度 提升到你認知不到「錯覺」
我自己是覺得用錯覺這個詞來闡述這個問題 好像滿奇怪的
簡單思考一下就知道了
假設AI是個人 他肯定會有他自己的認知
他的認知來自於他的資料庫
但誰能保證資料庫裡面的資料100%是對的?
畢竟資料庫的資料也是人為產出,或是他的開發者灌入的
最終都會限縮於:「什麼是對的」的這個命題
並且有一個很弔詭的事情是這樣的
「你憑什麼認為AI給出的答案是錯的,便稱作幻覺,難道就是基於人類的共同認知嗎?」
這個東西討論到後面就變成哲學問題了,所以不贅述。
但核心概念是這樣
一個人,老師,教授,都會有認知錯誤,都會出錯,為什麼人工智能不會
基於什麼樣的原因,你覺得他能掌握100%的真理,這樣想想不就知道了
但是基於網速科技提升,資料處理能力加強,程序優化肯定能再進步
回歸前面所說的,只要把AI的範圍侷限性拉大,就能提升正確率阿
比如你設定這個AI就叫做金融投資機器人,甚至叫做台灣金融投資機器人
並且串聯所有台灣銀行、投資平台、各大當鋪的內部資料
那肯定是強的沒話說。
你期待一個AI機器人,能貫通世界上所有領域的事情,給你都是正確的答案
那肯定是不切實際。
更何況一定一堆人是這樣:「請給我一個完美的python程序。」
「幹,你這個根本不完美」
你自己都定義不出來,都不知道什麼叫做完美了,AI怎麼可能會知道
你怎麼連話都說不清楚~
我自己是覺得AI很神啦,沒有戰文組的意思,但對於邏輯思考,表述能力不好的人來說
可能不好用
我在某平台上面,買了好幾次程式課,每次都沒有耐心看完,把作業做完。
chatgpt用了兩三天,已經弄出了兩個簡單的小程式,改善我工作上面的需求
平心而論,我就算認真把課程都上完,自己寫,寫個1個月,大概都弄不出來。
AI最強大的,就是他給你的資訊裡面,是有一定程度的正確率的,
你本來就要能分辨,什麼東西對你有用,然後再引導他幫助你,給出更多有用的資訊,
最後幫助你完成你的目標。
--
他這個幻覺是幻覺一些很明顯的是
我舉個簡單的例子給你聽 我們弄個AI加法機器人,並且只接受0~3,4個數字 那麼這個機器人的正確率 就是100%
※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:28:41比如日本二戰被兩顆原子彈轟炸,他會有機率說錯
回歸到程式面的話,簡單的程式也會幻覺。
比如一個程式函數只接受一個參數,他會寫兩個
你是不是不知道它幻覺產生的內容是什麼?有一些根本
錯誤的離譜。而且當你跟他要參考資料時,好一點會跟
你說它理解錯了。可怕一點的會生成不存在的參考資料
出來
他根本不是只參考資料庫給答案,是給出根本不在資料
庫中自己幻想的答案
承上述加法機器人的例子 你key了4和5進去,他會告訴你9 但也有可能,你key柯+大麻進去,他會回答你無罪 所以就看你有沒有要賦予他「創造」的能力 你要說他的思辨結果是不對的,一樣是看後面的演算法怎麼設定的
※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:33:37生成不存在的東西 這個人類最拿手的勒 打開電視隨便
4909新復興營收月增跟年增都100%
轉一間新聞台都是生成不存在的東西R XD
我覺得你要先把你的程式課上好,再來討論耶QQ
你就 去用 加法機器人就好了嘛 是不是肯定不會錯
股板一堆財經新聞 你能分辨哪些是真哪些是假嗎 嘻嘻
敎授那等級的人會知道他講的話是不是準確,就算表
面堅持是準確但內心會有底,但AI目前根本無法判斷
自己講的內容是否準確
齁齁 所以你就能判斷你眼前看到每件資訊都為真嗎XD
所以你會看到它一本正經在講幹話
範圍縮限就能解決這個問題 因為chatgpt目前的設定範圍,是無限
會說是幻覺, 就是因為這些不是資料生成
我會知道我不確定阿,知道差別嗎?
每天晚上隨便打開一台政論節目 不也都在講幹話
收視率還高到要命 大家愛看得要死 XDDDDD
比方說 他叫他寫程式, 他會丟給一個不存在的套件
一本正經的用這個套件開發程式碼
這已經不是錯不錯的問題
你跟不同信仰跟政治的人說話 感覺根本想平行宇宙
怎麼 判斷你的說法是正確 他的說法是錯誤?
你先了解一下為什麼會用「幻覺」來形容
我理解會什麼叫做幻覺 也理解錯誤和無中生有的差距 但只是因為他對於人類共同認知的答案 在不熟悉的環境下 有不精準的回答 這個回答來自於他的資料庫不夠精準 也來自於他的程式設計有問題 你要解決所謂幻覺 暴力破解法就是載入所有的問題和答案 但極端例子來說 11111111111111111111111111+1111111111111111111111111111 他可能就回答不了你了
大型網頁版siri,一樣撈資料回答一樣會出錯,都一
樣。
要捏造一個不存在的東西 這個人類更拿手 而且生活中
人類也會有類似的錯覺, 例如曼德拉效應之類的
設定的範圍怎麼會是無限,就是餵給他的資料而已。雖
然龐大但不是無限。
據我所知 ghatgpt並沒有縮限 可以問他什麼問題 頂多犯法類型的東西 他會告訴你不能回答 而不是他不會回答
這種案例比你想像中的還要多 你用google搜也不一定
正確 一堆內容農場東拼西湊 wiki也是亂寫一通
推文都滿溫和的耶...
文章嘴文組,結果自己對於AI的理解也是幻想
老師教授可以直接說這我也不確定,ai 會不懂裝懂
超導呼...
正確性這種東西 人類自己都沒辦法保證了 還要求才剛
有點小發展的AI
幻覺跟正確性不完全是同一個議題
那個str也在亂扯,就是知道瞎掰不對,所以才希望AI
不要瞎掰。
政論節目的幹話 大多數還是在有所本的基礎上扭曲
問題在於 你怎麼定義瞎掰?
事實來的 AI的幻覺就不知道哪來的
無罪
他可以根據資料庫理解錯誤,這是可以修正的。但是瞎
掰不存在於資料庫的東西,這個就是現在的問題
你先定義瞎掰是什麼 我們再來談瞎掰對不對嘛 合理阿
我就說即使你用google 上面一堆東西也都瞎掰
我想我前面已經對於AI幻覺有很清楚地描述
Ai 大部分都是最佳近似解….到底要怎麼不講幹話
但google搜尋就沒用了嗎?你打開電視上面一堆假新聞
瞎掰的範疇很大 有所本跟無所本 是兩回事
瞎掰的範疇很大 有所本跟無所本 是兩回事
那新聞就通通可以關一關了是嗎
是呀 就是因為有不懂裝懂的人自己胡扯呀
一堆幹話連人類都講不出來
假新聞也是 在有所本的新聞上亂寫 跟 報導一則完全
虛構的新聞是兩回事
這是哲學問題 因為你覺得他無所本 他認為他有所本 說到底 就是程式問題 一樣是範圍設定的問題 只要能限縮知識範圍的框架 這個問題一定會減少很多 幻覺來自於 創造力 基本的程式都有一定的創造力 AI只是更人性化 讓你覺得他有幻覺而已
AI的瞎掰當然也是有所本啊 它的模式跟人一模一樣
就跟你說 AI幻覺 是無所本
問題是無中生有捏造資料 為了湊答案捏造論文出處 要
他驗算等號左邊明顯不等於右邊還能說是相等的 快點
解決啦
人要瞎掰 不就是東拼西湊 假新聞和政論名嘴也是
瞎掰扯謊憑空幻覺,只要有0.001%的可能,AI就玩完
我前面舉的例子你看了嗎
我前面舉的例子你看了嗎
一本正經瞎掰 你去看看LBJ嘛 收視多好 資訊都正確嗎
Ai核心都是資料集小辦法去生成一個f(x), 你就算帶
入一個從未出現的x大部分也都可以得到一個y
沒有人說AI沒有用,只是在討論他瞎掰的問題有點嚴重
。就像google出來的東西,很多也是垃圾,所以才要使
用者才要自己找方法判讀。但AI目前沒有辦法找方法判
讀自己輸出的資料是不是瞎掰的。這樣你懂嗎
我一直都知道這個事情哦 所以我也只是說 這個問題不需要討論 因為他本身就是必然的
這個y扯不扯是另外一回事,幻覺就是這個y
政客扯謊帶來多少美好崇景,謊言搓破帶來多少痛苦
AI會自創api很正常啊,因為人類也會
咁,這個api沒有嗎,我以為會有
人類有政客就夠了,不需要AI來自尋煩惱甚至帶來毀滅
一堆人不懂演算法在那邊扯幻覺
對 人類也會無中生有 但目前無法理解為什麼AI會
而且無法解決 所以只好縮限AI回答能力
就不是無中生有,而是帶入一個x以他建造出來的模型
就是會丟出一個y給妳
我問他變形記他跟我講悲慘世界 整個不知道在幹嘛XD
這個我覺得你有在扯 你應該是前後文沒有定義清楚 他在回答你前面的東西吧
曼德拉效應我不知道大家知不知道
不在資料集裡的y就是我們在討論的幻覺啦,自己說從
資料集生成,啊生成資料集以外的結果怎麼說?
給你兩組x,y 讓你求一元一方程式,非資料集內的x帶
入後就是會幫你算出y
反駁不了我就惱羞喔 XD
事實是 我們的現實本來就被巨大的假資訊包圍
你會說這個y是幻覺?
已經說了,他可以回答錯誤,這只是演算法不夠強。但
這跟產出不存在的資料是兩回事
你可以看我第二次回文的內容
然後我們的認知不想承認這件事實
deadair那個例子還不算
不然你看看對岸就知道 你看看他們的現實和你的一不
一樣嘛
現實的假資訊跟AI給的一樣 半真半假 你敢說你分得出
我不知道是你一直要講現實要幹嘛 有人說人不會無中
生有嗎?
人當然是會
str真的來亂的,直接忽略就好
Ai就只是個求函數的演算法、而目前很少演算法可以
求出現實環境的完美函數
你餵假資料給AI AI當然也是會吃了假資料回答你假
資料的內容 問題就不是假資料啊
stosto至少還是在討論問題
所以求得的都是逼近函數
你根本反駁不了就說人家來亂喔?不然你解釋一下怎麼
假資訊讓AI學習,AI再扯謊一下,是打算讓世界多亂?
解決現實裡的假資訊
而逼近函數就是以資料集去逼出來的
@stosto 其實要說一切都是函數結果當然是可以
更別說,不用假資訊的狀況下AI就會扯謊了
然後你再來想想要怎麼解決AI給的假資訊 這才合理吧
你有假資料本來就會把一個不錯的函數帶偏
現在是在討論現實世界假資訊?你根本沒弄懂命題就不
要在那邊吵。
問題就是現在連專家都不知道為什麼會這樣
專家不可能不知道啦= =
AI是現實的資料進去生成的對吧 那何以保證現實資料
但在處理大資料也會去過濾假資料
的的正確性
@stosto 你講的東西其實對於認識這件事情毫無幫助
wiki之前有個自己編出一段古俄羅斯史的 很像這種
專家要是知道就不會有這篇新聞了 好嗎
對!最麻煩、最可怕的是"不知道為什麼"
我是不相信什麼不知道為什麼 根本一堆記者喜歡搞這種天網既似感
※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:54:03如果把假資料給AI,他當然就以這個假資料產出結果,
但是這還是「有所本」。目前的問題是,他所產出的資
料,並不在餵給他的資料裡
光這點,AI基本無法發展
目前就是不知道為什麼會這樣 所以只好縮限AI回答能
力 避免AI幻覺
原文是說無法解決而非不知道問題點
現實的假資訊不會影響到AI嗎 你確定嗎
專家就是因為不知道,才僅能用"幻覺"來形容狀況
光要分辨哪裏有錯就搞死你,自動產生程式根本科科
所以現在討論的不是,把假資料餵給AI產出的奇怪答案
叫幻覺。而是不知道為什麼會產出根本不在資料集的東
你相信不相信都改不瞭現況
西。
你神化了這個所謂不存在的資料 如果你把所有的幻覺結果拿出來看 對照背後的運行規則 一定可以找到解釋 那不然啦 只有一個可能 就是運算複雜度達到某個層次的時候 這個世界法則會賦予這個客體「靈魂」 你他媽在跟我寫小說484= =
命題沒有問題啊 不然你確定餵給AI的東西100%正確嗎
所有做ai 的如果不知道會有這種無中生有的問題可以
不知道問題點,請問該怎麼解決? XD
回去重修了
目前AI幻覺真的找不太到原因,AI演算法基本上是個黑
盒子,中間運算過程很難追蹤
這邊講得不知道 指的是不知道為什麼發生 而不是不
那根本不是資料庫問題,就是chatgpt 自己在瞎掰
幻覺這件事情就只是錯誤率而已
知道會發生這種情況
不是錯誤率而已
我覺得sto講的是錯誤答案,不是我們在討論的幻覺
這東西就一定會發生 到底是多專家才覺得不會發生
黑盒子形容的很貼切。這就是AI無法發展的原因
無中生有不就是人類思考的特性之一?
到底多專家 這一篇就是大學系主任?
AI是不是就是以模仿人類為目標?
ChatGPT的專家也說過類似的話
我問他
那就這一點 AI還真的達到目標了勒 XD
在文字拓撲學裡的網路大成這樣,你函數在某一段錯
誤後面會偏離的很嚴重
@strlen 就算是資料有問題,那也是根據資料產生的回
答,雖然答案是錯誤的,但是就過程而言是正確的,這
是資料的問題。但現在的問題是他沒有根據資料,自己
創造了答案。這樣你清楚問題了嗎?
桃樂比是誰,他給我回答其他東西XD
這明明大家都知道,現在扯不知道幻覺怎麼出現
只要有黑盒子存在,機器人三法則必然無效。
然後問他六位數加法他兩次答案不一樣
你這個太胡扯我真的不信 你貼個6位數加法 兩次回答不一樣來看看
※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:59:16https://i.imgur.com/6C7jFzQ.jpg 這就是幻覺好嗎
跟資料庫有什麼關系?
從這個你可以看出預設 1.假定使用者資料為真 2.以這個假設從資料庫尋找有可能的答案 不就如此而已嗎 不然你去問open AI工程師 他是不是這樣寫的
所以AI發展到盡頭,僅會是假裝有人性的一團混亂
原子彈那個就是我們在討論的幻覺。當然一定是演算法
本身有問題,但就是不知道為什麼會有這樣的問題
之前還有一個例子
有一個律師用ChatGPT產生出庭文件
律師看內容覺得沒問題就提交出去
但文件裡面用來論述主張的判例不存在
ChatGPT幻想出了一個案件的詳細情況 當作判例
從資料庫找可能答案,但沒找到就應該產出沒有。而不
是自己編造一個回應。
不懂幻覺的人 建議去看一下李宏毅教授的課
生成式AI並不是基於資料查詢的AI, 所以不設限制的
話甚至連算數都不會
抱歉~ Yann LeCun 早就講過~只靠語言沒法完全理解
我前面講的那個套件的例子, 是有人要chatGPT用pytho
n開發一個程式, chatGPT就給了他一個基於OOOO套件的
程式, 內容看起來都沒問題, 但要去找oooo套件來安裝
就不存在這個套件
這個缺點大家都知道 但只要利大於弊就會有人用
如果你不太能理解這個問題, 這就好像你要chatGPT用
從神經網路剛開始發展的時候就知道的事情
外語寫一封信, 結果chatGPT告訴你它用阿里不達國語
寫, 而且還真的寫出來了
但不存在這國語言, 自然內容你也無從理解
公三小
阿假設資料為真 後面的答案不就是幻覺了 還是連歷
史這種事情都可以發揮想像力來回答?
這個跟之前wiki上的假俄羅斯歷史有點類似
你用兩組資料求出y=ax+b 然後說不在這兩組x就不能
求出y, 天才
這命題不就跟美國某個律師用ai抓判例,結果ai提供
的完全就是自己生成而不是真的有這個東西,然後律師
不知道還拿去用出大事
chatgpt就是不是算數學AI,他不是只是一個簡單函式
好嗎
所有的ai都在求function…..
就說在求逼近函數
當年愛迪生為了打擊交流電整天喊會電死人
要求函數的話資料集一定有限
直到今天都還有人會被電死 但是呢?
為的就是得到非資料集的答案
現在要限縮?
現在終於懂為什麼當初唸書的時候一堆人np 問題的精
髓不會用
哥 你該學新東西了
基本上你講的沒錯,但不是大家正在討論的東西…
不要看做人工智能AI,事實上就是資料彙整生成軟體
這個資料生成軟體自由發揮的空間很高,甚至會幻想
這樣就夠了~ 哈哈阿
有個重點是,人一般會有自己可能說錯的自覺,也有
意識到對某事缺乏了解的能力,對此一般人會承認自
己的錯誤或無知,與之對話者就更能夠合作去尋求解
答,但chatgpt缺乏這樣的自覺與承認的能力,它只會
一直唬爛下去。這不是單純說錯話而已。
半瓶水響叮噹
去修資工AI,會了解更多
機率分布沒有明顯的峰值時就代表很有可能出錯了
人要做的是根據結果來調整閾值
哪有什麼幻覺不能解決的,就沒訓練好而已
很難有完美的模型,所以一定會有他們所謂的幻覺
就算是真正的人也會虎爛你,你又怎麼判斷真偽呢?
也不是沒訓練好, 限制不能有幻覺, 就變成多元回歸了
stkoso說的是對的 不調整根本沒辦法避免幻覺 跟資
料庫一點關係也沒有
講的超好,一堆人一直在吵有沒有錯誤,但憑什麼你認
為的錯誤就是大家的錯誤?這個對錯、完美是誰的標準
建立的,換了一個人來看是不是本來的正確跟完美又是
被充滿瑕疵?
看來樓上認為3顆原子彈是完美的答案呢
現在的幻覺是不是建立在AI變成一個討好人格?? 不
急於事實提供建議.... 如果是的話這真的要認真去思
考有沒有可以改善的方式
幻覺和回答錯誤是兩回事,你說加法,數學問題,結果
不一樣就錯誤,但幻覺不是這個意思
以數學舉例的話
所謂的錯誤, 指的是四則運算的結果不對
幻覺的話是chatGPT告訴你有加減乘除以外的第五種
運算, 而且還用這種運算算出結果給你
AI的問題是表面效度太高了—即使他的答案根本就是瞎
掰,仍然必須真的對這題本來就很了解的人才能辨識。
自學習資料擴張生成軟體,這是目前AI真面目
你可以說是演算法不夠好或者資料來源不夠乾淨導致他
的回答”錯誤”,但這種錯誤對大部分的人來講就叫做
幻覺
幫助幻想瞎掰,或合成圖像很好用
幫忙去馬賽克也很有效率
應用到對的產業,也是不錯啦
比較好的解決方式是:不知道就說不知道
但他現在就做不到
問題就再,如果說"不知道"也是在迎合人類 (說謊
黑盒子存在AI就不可能發展,但可以拿來應用別的領域
三顆原子彈是因為你駁回他的回答啊 chatGPT不是wiki
所以好玩就好,對AI別太認真
AI哪管這是不是歷史事實 她只知道你不喜歡這答案
用過chatgpt的會知道,一般情況下反駁他也沒用吧。
至少我的使用經驗是這樣啦
我也覺得你不太了解實際的狀況,他都自信但但的捏造
出一些不存在的數據和細節、規則。很多的錯誤是有根
據的、有因果或是有人為判斷的錯誤,可以檢討、修正
。畢竟人類短時間還是很難把判斷交給AI,但如果今天
你詢問GPT一些事情他會憑空的編造完全不存在的事並
且說的非常合理,包含研究機構、報導、統計通通憑空
編造,你得自己查證過一遍,任何使用GPT尋找根據的
作法都是不可靠的,但Bing目前用起來這個問題就很少
我講完整一點 AI的問題其實要分成兩個層面 一個是
假資訊 一個是無中生有 後者會影響到前者 但後者卻
也同樣是目前大型生成式語言模型所追求的 如要希望
夠精準的資訊 就要降低無中生有的能力 但無中生有
卻正好是本次突破性的特色 不然其實只是想要一個能
用自然語言提問的百科全書 那ChatGPT也不會爆紅了
無中生有這個特點的確是兩面刃 但光是這樣 很多情
境下就已經非常好用了 新聞裡提出的問題是精準度問
題 這個其實不難解
看到第二段開頭就知道可以結束惹 你對AI 的認知還太
少
可以稍微上課一下 看看台大怎麼教學的
別太糾結,我已經找到最佳應用領域 去馬賽克
我可以接受去馬賽克後,不夠精準,但有像就夠了
我相信大家都可以接受,手指頭稍微扭曲或變六隻
OK的
結果看來文組理組都看不下去XD
你完全理解錯誤
不是訓練資料的正確性的問題
我就問你什麼科系學什麼的 哪來一堆推論
最後還是看你的需求 如果你今天要的是 問AI他就得
回答一個可靠精準不唬爛的答案 那你要的就是百科全
書 那至少現在ChatGPT無法 因為唬爛在某些情境之下
是很有用的 它設計取向包山包海 無法兼顧 我認為最
後目標是像bing AI使用者自行選精準度高的AI 或是
無中生有超愛唬爛的AI吧
還有那個六位數加法會不一樣是真的,不只6位數,舉
凡任何數理邏輯規則的演算都會亂講,1+1都會算錯。
我曾試著訓練AI做會計,到後面真的矇了,全憑幻想
但講是這樣講 現階段當然是沒做到很好 所有人都還
在趕工調整 確實達不到需求 當然這也是股價還有想
像空間的理由 要是都發展得差不多了就是糕點喇
如何避免人類滅亡? AI:監禁人類
ChatGPT中的幻想 是特色之一啊 特別是創意類文案
所以今天就變成 跟創意相關產業人士就覺得神讚 但
想要百科全書的人就該該叫 合理啦
光是adobe的那個AI修圖補圖 真的超神超好用
AI不會無中生有,但是會從資料庫拼湊出不正確的資
訊
事實上亂產資料不是人類最愛幹的科科 應該反而要害
怕 ai越來越人性化了
AI 跟 公式推導本身就是不一樣的東西,AIV出來的東
西就不是100%一樣,是一個信心度的問題,現在就是AI
對原資料做了未知的剖析,根本不是參照資料有沒有假
的問題
我是拿我自己整好的資料請他減少冗句和分段,就會發
現他完全誤解其中一段的主題然後亂湊,但別人乍看真
的看不出來
大家也太溫和 你根本整個搞不清狀況 還扯到哲學
gigo
先搞懂甚麼是機器學習好嗎 一直是說是給程式的問題
跟資料庫正確率無關 是機器學習後果就會產生的憑空
虛造 跟人類會話唬爛一樣 跟你這篇會不懂裝懂硬扯一
樣
唬爛為主場的應用情境
你商家數據資料 總要最新的為主吧
她回答不了 有差嗎 大家就是要看AI pon
AI只能是工具,不能是人性
人家就只是個LLM一直要他變人
我問灌籃高手哪隊是全國冠軍
他回答灌籃高手主角是流川楓
湘北高中是全國冠軍,大言不慚的唬爛…
然後我說湘北就打輸愛和了哪有全國冠軍,他又回答
山王才是全國冠軍,這是不是幻覺
就是有人故意餵不存在的錯誤資料啊
誰跟你幻覺
不信你去餵韭菜DPP清廉勤政愛鄉土
久了韭菜就回你DPP清廉勤政愛鄉土
我又說山王在第二場就打輸湘北了
他又回答全國冠軍是翔陽…
一樣道理啊
https://i.imgur.com/6fa1FE8.png 你要是百科全書啊
樓上,請問我問的網路上沒有一個資料顯示過翔陽拿
過全國冠軍喔,這資料哪來的?
只是要可用自然語言提問的百科全書 簡單很多
就是全部去尻搜尋資料比對 最多出現的 基本就是答案
這就是所謂幻覺,如果再更深一點的問題,你甚至會
相信AI,會不會成為災難就不知道了
但如果只是這樣 今天chatGPT就很無聊 也不會爆紅
對 是無中生有的幻想 但這就是他暴紅的特點
你需要的是精準的AI百科全書 ChatGPT目前無法做到
但我認為這只是設計取向不同而已 不算什麼大問題
ChatGPT大概也不是以百科全書為目標的
引出不存在的判決書內容或字號就是錯的阿 怎麼取得
人類法官
取代
好幾次誤導gpt,他竟然就開始跟著附和我XDD
能夠輔助人類使用的ai大概需要客製化啦
但必須要說 能夠達到輔助人類使用 覺得很堪用到有龐
大的商業價值 大概至少5年內不會發生 但我認為是10
年內 再來覺得幻覺能夠被解決這件事 就是外行人的幻
想而已
我發現很多ai迷信者都會在那堅信ai有天什麼事都會被
解決 但說真的就跟外星人被發現一樣現在就是莫名其
妙的低能論調
舉例來說 ai現在都無法判讀人類文字情緒了 連那麼基
本的事 ai都做不到 是要怎麼克服後面根本稍微難 但
對人類大概是呼吸等級的事
沒哦,他最基本的連續十個亂數作加總平均都會錯哦,
而且你還可以糾正他,拿錯的糾正他還會謝謝你
其實你還可以第二次第三次糾正他,他到最後會反覆給
你一樣的答案,直到最後他肯定的那個還是錯的,我有
截圖下來
先定義什麼叫AI幻覺吧 AI的答案本來就依照模型選出
最高機率的回答的‘’近似‘’答案 本來就是在編造
你根本不懂新聞在講啥吧,我今天問你床前明月光誰做
的,除了考試合理地回答應該是李白或是不知道選一個
你絕對不可能回答甚麼諸葛亮對吧...AI會
這就叫幻覺 懂? 資料庫沒有輸入他自己聯想的幻覺
chatgpt 本來就是超高級的文字接龍 高級到有時你覺
得他有智慧 那是因為它是去近似訓練它的人類文本
有時又覺得它在瞎扯 因為岳飛就是岳飛 少一個字都
不行
我因為有在釣魚,曾經問過一些氣象紀錄,比如某地
歷史最高溫、日出時間、滿潮時間,而這些理論上都
能查到正確的紀錄,潮汐懂規律也可以推算,可是gpt
常常給我最新2023的數據,我問資料庫不是只有到2021
?他就回對不起,2023不是紀錄不是推算,完全是瞎
掰…那會不會過去某一年其實也是瞎掰?問紀錄查不
到不是留白而是欺騙,這不是政治立場或人也會說謊
的問題,期待AI對這類基礎的問題回答正確且誠實應
該不算太高要求
AI幻覺是網軍問題 看看民進黨操作
隨便問電影劇情就會產生幻覺了啦 笑死 有夠難用
問A答B 根本創作文了 笑死
嗯
你才不懂AI是啥吧? AI哪來資料庫? 笑死人先去搞懂A
I是啥 你以為AI是靠資料庫來回答問題的嗎? 那資料庫
要多大? AI只有訓練庫 訓練出來的是一個複雜函式權
重 它是能回答任何問題的 亦即給定任何一輸入 它都
會有輸出 它的輸出準確率本來就不是百分之百的 即
使AlphaGo ChatGPT 用非常大量且高品質的資料訓練
相比於整個空間還是非常微小 你問它床前明月光 它
本來就可能會回答諸葛亮或任何人名 人類回答問題是
靠正確理解 AI回答是靠機率 靠貼近它所訓練的資料
它只是依照你的上下文選出一連串最可能的一個一個
字 這本來就是瞎扯 本來就是幻覺 只是當大部分回答
看起來都很順很合理時 你覺得沒問題 但是不合理的
例子還是會很多 懂? 這時你就可以看出AI只是拼字
而不是"真正"理解 但它依然實用 為何?當你逼近百
分之九十九的九九時 不管它是不是真正理解 就行為
來說跟真正理解也差不多了
本文裡已經不就說的很清楚了嗎? 現在沒有任何一種
模型能夠完全避免產生幻覺 因為它們的設計初衷只是
用來預測下一個單詞 其實根本就沒有什麼"幻覺" 那是
對一般外行人的說法 也沒有什麼編造答案 它本來就是
在編答案只是有時對有時錯
前面有人講的很對 所謂幻覺就只是錯誤率而已 幻覺這
個詞是人類用法 這個錯誤率是不可避免的 一個是你訓
練樣本有限 第二個是目前的演算法跟模型正確率還不
夠高
你問它原子彈丟幾顆? 它回答可以是3顆 2顆 5顆或任
何常用的數字 這表明它就不是用什麼資料庫來回答
而是每一次問它都可能會有些許不同
19
[問卦] ChatGPT是不是根本沒設機器人三原則?稍微了解一下團隊設計AI的方式 簡單來說它只是餵資料給AI,給AI自己運算 好幾個AI挑出一個可以用的 AI中間發生了什麼事, 它是如何處理問題21
Re: [討論] chatGPT會取代軟體工程師嗎?提供一個有趣的觀點 在 堆疊溢出 的網站有關於一則公告內容是禁止 chatgpt 回文。 底下有一個 AI 研究員的論點很有趣。 temporary-policy-chatgpt-is-banned?cb=16
Re: [問卦] 有哪些職業不會被AI取代?ChatGPT目前我覺得是過譽了, 他比人類更厲害的一點是, 你寫了一堆重複性的廢話你會尷尬, 但他不會,他會用更多廢話去包裝同一個廢話。 AI跟人類還是有一個決定性的不同,