PTT評價

[閒聊] ChatGPT是語言模型不是搜尋引擎

看板C_Chat標題[閒聊] ChatGPT是語言模型不是搜尋引擎作者
ZMTL
(Zaious.)
時間推噓38 推:48 噓:10 →:235

要回的文太多了,不如獨立開一篇,感謝上面示範了部分ChatGPT的錯誤用法XD

簡單來說,ChatGPT是語言模型不是搜尋引擎。
語言模型的目的在拆解對話,然後回應對話,他的使命是把話接下去,
盡可能的跟去你的要求「跟你對話」。

我不是說GPT3沒辦法應用在搜尋引擎,但那要串其他東西,但ChatGPT肯定不行,
可以問他有思考性的東西、甚至不同人有不同觀點的內容,
但不要問他也不要叫他提供有「正解」的內容,包含但不限於查資料,
甚至像是推薦書單或論文參考文獻等等。

他只會為了他不知道(哦對,尤其ChatGPT的資料只到2021)但他要「想辦法跟你聊天」,於是一本正經的講幹話。

請把他用在跟你一起進行發想,或誘導他自己想然後你去校正。

ChatGPT當然可以用來寫論文,但他的角色會是一個任勞任怨24小時oncall的指導教授,甚至可以提供你一些看起來像回事的「論文公版」,但他沒辦法幫你一步完成。

所以AI沒辦法正確回答為什麼為何台灣把FF翻譯成太空戰士,
他只能從字面上去做連想推測,可能職業是機器人之類,而不是去翻事實資料。

AI也沒辦法直接幫你組好遊戲王卡(?
要他幫忙組遊戲王卡的話可以像是這樣:
https://i.imgur.com/kBu2YeM.png

https://i.imgur.com/V4vFREr.png

--
AI_Art AI藝術與創作板 歡迎各方前來討論AIGC創作與相關議題!
位置:戰略高手 > DigitalWare > AI_Art

AI情報屋營業中
噗浪:https://www.plurk.com/Zaious
IG :https://www.instagram.com/zaious.design/

--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 123.193.180.122 (臺灣)
PTT 網址
※ 編輯: ZMTL (123.193.180.122 臺灣), 02/24/2023 17:11:23

chadmu02/24 17:11內文的洽點勒

kopune02/24 17:12錯誤用法????

xelnaga02/24 17:12ACG?

kopune02/24 17:12這個還有正確或錯誤用法喔?

miyazakisun202/24 17:12快補點

miyazakisun202/24 17:12然後Chatgpt 會瞎掰資料來源

※ 編輯: ZMTL (123.193.180.122 臺灣), 02/24/2023 17:13:36

ARCHER223402/24 17:13他連色文都寫不好,笑死

gcobc1263202/24 17:13好的所以請問ChatGPT在C洽發文怎樣才不會被桶

※ 編輯: ZMTL (123.193.180.122 臺灣), 02/24/2023 17:14:11

ARCHER223402/24 17:14虧我還手把手教他半個小時

Satoman02/24 17:14什麼錯誤用法,聊天這方面它根本就句點王 ==

linzero02/24 17:14如果是回文不用點

mochihoshi02/24 17:14典型會按幾個鍵產圖就以為自己是AI大師的例子

Satoman02/24 17:15聊天功能就是它能做到的事之中表現最差的

ARCHER223402/24 17:15他倒是道歉大師

ZooseWu02/24 17:16他會"對不起對不起對不起對不起對不起對不起對不起"嗎?

syk110402/24 17:16"Chat"GPT

ARCHER223402/24 17:16每次我糾正他都會先道歉

roribuster02/24 17:17你只要問句中夾雜兩種以上語言它會直接error

ThreekRoger02/24 17:17但這篇不是回文阿

※ 編輯: ZMTL (123.193.180.122 臺灣), 02/24/2023 17:17:30 ※ 編輯: ZMTL (123.193.180.122 臺灣), 02/24/2023 17:18:39

linzero02/24 17:18有的說大概就9歲孩童的智能,小孩子如果只是為了沒話找話

linzero02/24 17:19也是會瞎扯淡的

jackjoke200702/24 17:19恰點?

deepdish02/24 17:20重點94搜尋引擎垃圾內容太多END

an94mod002/24 17:20ACG的A是AI的A

ZMTL02/24 17:21補了,本來想回文回到忘記不是在回文XD

※ 編輯: ZMTL (123.193.180.122 臺灣), 02/24/2023 17:22:05

SaberMyWifi02/24 17:22糾正他會道歉說自己說錯,然後再給你正確答案,表示

SaberMyWifi02/24 17:22他知道正確答案,但一開始不告訴你,是不是表示他想

SaberMyWifi02/24 17:22說謊?當AI發現自己可以說謊騙人的時候

※ 編輯: ZMTL (123.193.180.122 臺灣), 02/24/2023 17:24:53

Vulpix02/24 17:24引用論文都是一本正經的XD

deepdish02/24 17:25https://i.imgur.com/y7ZmwIL.png

goodjop1102/24 17:26那我可以請chatgpt使用念奴嬌詞牌格式跟我介紹遊戲王

goodjop1102/24 17:26怎麼玩嗎?

gbdt02/24 17:26https://imgur.com/NABt6XM 後兩段拿掉改個日期就可以上了

kirimaru7302/24 17:28他的目的就是跟你聊天,盡可能回答不會被打屁屁的內容

bruce90012002/24 17:28你在這釐清或闢謠也沒啥用,現在這東西就是大觀園,

bruce90012002/24 17:28新奇感讓大家瞎逛,看看最近八卦和這裡的相關廢文有

bruce90012002/24 17:28多白癡就懂了。問個垃圾問題然後把回覆內容貼上來,

bruce90012002/24 17:28怎不去問你老媽一樣的問題可能比較有可看性。

hsiehfat02/24 17:30它就是個聊天機器人,一堆人把它吹得多強多強我快笑死

kirimaru7302/24 17:30總之呢,這種事情資料非常好找,然後有人就算去看完以

kirimaru7302/24 17:30後也會回台大教授是什麼雜魚他懂個屁的AI

kirimaru7302/24 17:30這種人就讓他跟他的腦袋一起被時代吞噬即可

NARUTO02/24 17:30真的有人問過FF為何翻譯成太空戰士 ChatGPT還真的能回答

ZMTL02/24 17:32他能回答,但他不是去翻資料貼上來,而是根據他的理解做推測

ZMTL02/24 17:33不介意正確性只是要看起來像回事的話他可以「回答」

kinda02/24 17:34還是等google bard。定位是搜尋助理,如果能給refs就好

kirimaru7302/24 17:34https://i.imgur.com/iT18JgI.png 這是我今天玩的結果

kirimaru7302/24 17:34確實是能達成「正確性不要太在意而且看起來像回事」

kirimaru7302/24 17:35但他的邏輯就是你在跟他聊天,今天你問他這種問題

roribuster02/24 17:35你可以理解成他會神機錯亂

kirimaru7302/24 17:36他覺得最適合聊下去的內容就是給你一個還算像樣的回答

Yanrei02/24 17:37我剛無聊問他PTT,他還跟我說PTT是交大的XD

kinda02/24 17:37是不是好的回答,是OpenAI請非洲肯亞勞工標示的

roribuster02/24 17:37我在同一個對話串裡告訴他後藤一里是誰,接著讓他erro

roribuster02/24 17:37r,他錯亂後就會忘記我同一串講過的東西,然後從他的

roribuster02/24 17:37資料庫裡找出一堆東西煮成佛跳牆端給你

kinda02/24 17:38它只要能唬爛的超過那些工讀生就好。資料正確性是其次啊

kirimaru7302/24 17:38他的基本原則就是講錯話會被扣分,我盡量不要講錯話

kinda02/24 17:38因為他就是這樣被訓練出來的

kirimaru7302/24 17:39所以他的回答會有模糊的用詞,畢竟「讓人看不太懂」比

kirimaru7302/24 17:39「講錯話」要來得能接受

kirimaru7302/24 17:40很多訓練聊天機器人的文獻都有提到,需要下一番功夫讓

kirimaru7302/24 17:41「窩不知道」不要太容易被視為合理的回答

kirimaru7302/24 17:41因為現實中真的很多場合回「窩不知道」都是合理的

miyazakisun202/24 17:41他知道伊隆馬斯克是推特董事 但是叫他說明他會說他

miyazakisun202/24 17:41記錯了

SaberMyWifi02/24 17:43他的回答能通過賓夕法尼亞大學的MBA考試跟明尼蘇達

SaberMyWifi02/24 17:43大學的法學考試,而且閱卷老師沒發現是GPT寫的

Yanrei02/24 17:43我今天玩了一下,感覺他很喜歡用類似禁止事項這種方式來

Yanrei02/24 17:43回答,尤其是如果要他去分析某些頁面上的資訊,他很明顯

Yanrei02/24 17:43都能抓到,但問題很容易被他打槍說無法回答你XD

Yanrei02/24 17:44就要一直拐彎去測試怎樣的用字他才會願意回答你

ZMTL02/24 17:44那個前提是開場就要餵他資料,他閱讀測驗很厲害

ZMTL02/24 17:45(我指的是考試的部份),因為語言模型就是去理解文字然後

ZMTL02/24 17:45回應文字,所以你給他吃資料他會去讀然後試著理解資料內容

ZMTL02/24 17:46但如果不灌對應資料就叫他寫考卷他只會OS我不知道然後現編

Yanrei02/24 17:46就像是「我只是個語言模型,無法blahblahblah」

ZMTL02/24 17:47Yanrei你可以請他先「扮演」一個角色,除了色色外都可以用這

ZMTL02/24 17:47個方法

Minesweeper02/24 17:48不知道為什麼他對數理方面的判讀滿差的

InsaneRabbit02/24 17:50完全沒差 那些愛罵的讓他們罵 少一點人搶資源我才能

InsaneRabbit02/24 17:50多一點時間問他問題

kirimaru7302/24 17:50他是針對人類語言訓練的,數學這麼恐怖的東西喜歡講

kirimaru7302/24 17:50的人比例又不高

InsaneRabbit02/24 17:51好用的工具拿給你不去學怎麼用 只是一直在雞蛋裡挑

InsaneRabbit02/24 17:51骨頭跟嘲笑他有多笨 真的是要多自卑才會這樣

csqwe02/24 17:53我反而覺得這篇的理解反而才是問題很多 chatGPT要說是語言

csqwe02/24 17:53是沒錯拉 但是為什麼他不能同時是搜尋引擎 因為正確性? 你

csqwe02/24 17:54的搜尋引擎都不會搜錯嗎?以現在chatGPT的表現來說 正確度比

Yan23902/24 17:54我都讓它當色色貓娘

csqwe02/24 17:55任何搜尋引擎都高了吧 再來 理論上你是無法真正判斷chatGPT

csqwe02/24 17:56是否"不知道"某個議題的 頂多他說出的答案你覺得不正確 但

csqwe02/24 17:56是你無法知道他是不是真的"不知道" 真的理解他的原理不會說

csqwe02/24 17:58出這種結論 語言模型閱讀大量資訊之後 就是把某一個單字相

csqwe02/24 17:59關的資訊全部跟這個單字做連結 成為這個單字身分的一部份

csqwe02/24 17:59所以當你詢問他的時候 他就把這個單字跟你想要知道的情報相

madaoraifu02/24 18:01Chat就是一本正經的講幹話,對付公文格式跟會商務信

madaoraifu02/24 18:01還滿好用的,生成後只要微調,減少很多書寫時間

csqwe02/24 18:01關的資訊抽出給你 這不正適合拿來當搜尋工具嗎?

InsaneRabbit02/24 18:02我覺得原po也沒錯 搜索引擎應該是要能查到新的東西

InsaneRabbit02/24 18:02的 但chatgpt資料庫已經幾乎不新增資料了 所以原po

InsaneRabbit02/24 18:02有說gpt3可以配合其他東西形成新的搜索引擎 但chatg

InsaneRabbit02/24 18:02pt只能用現有資料庫裡的資料回答你 離2021/9越遠的

InsaneRabbit02/24 18:02答案一定越不準 為什麼一定要打死在利用chatgpt當搜

InsaneRabbit02/24 18:02索引擎 利用他的核心改一個新的出來不是更好

ZMTL02/24 18:04搜尋引擎會為了盡可能給正確的資料按照時間、關聯度、點閱率

ZMTL02/24 18:04(當然maybe還有廣告商)去做排序,但會有邏輯去判斷盡可能符

ZMTL02/24 18:05合你要找的事實,但chatGPT不是,而且他不知道的東西他會為

ZMTL02/24 18:05了回話而現編內容,這是把他當搜尋引擎找資料最大的問題

ZMTL02/24 18:06但GPT3(跟未來的GPT4等)當然可以以搜尋引擎的用途去結合其他

ZMTL02/24 18:06算法來做這件事情,而語言模型的用途則是更好的理解查詢者要

csqwe02/24 18:06鬼打牆欸 我就問你你要怎麼證明他不知道你問的問題 他看過

ZMTL02/24 18:06表達的意思跟整合回應,但還是需要有資料處理的結合

csqwe02/24 18:07的總資訊量是任何人類都無法比上的 你怎麼判斷他不知道的?

csqwe02/24 18:08知道錯誤的資訊 跟不知道硬掰 是完全不一樣的

ZMTL02/24 18:08首先,他幾乎沒有看過2022之後的資料

csqwe02/24 18:08講難聽一點 以機械學習的角度 要讓他不知道硬掰還比較難

ZMTL02/24 18:08他的訓練素材是2021年以前的內容

kinda02/24 18:09查維基百科、或Google就知道它在唬爛了。

kinda02/24 18:09你隨便問看看他日劇的演員主演、角色 一堆都在亂掰

csqwe02/24 18:11他從錯誤的資訊中學到錯誤的答案 跟他不知道硬掰是兩回事

kinda02/24 18:11請他更正、或是估計回答的準確度。它很明顯就是不知道

csqwe02/24 18:11這個差別會反映在 前者可以從資訊正確性下去改善 後者則否

kigipaul02/24 18:11問新的東西當然很有問題 他就說只收集到2021 9月了

kinda02/24 18:12我問他的是2013年的日劇耶...

csqwe02/24 18:12這也是原PO覺得不能拿來當搜尋引擎用的主要理由 根本不成立

kigipaul02/24 18:12但問一些歷史悠久 且變動率低的東西 就不一定很錯

kinda02/24 18:12我的起手是請他推薦2020年以前有哪些推薦的日劇

kigipaul02/24 18:13至少我目前問他 程式語言 他有些有錯 但沒錯很大

nungniku02/24 18:14問他資料庫最後更新日期,他回答2021年9月

csqwe02/24 18:15他學習的對象基本上就是人類 所以如果他講出看起來很像亂掰

tsubasawolfy02/24 18:15他作為理解人類語言然後輸入,再把結果輸出成人類

tsubasawolfy02/24 18:15語言的功能很好了。連中文這種邏輯跳躍都可以攻克

tsubasawolfy02/24 18:15。 目前3.5還可以把他訓練用的資料庫拿來當搜尋引

tsubasawolfy02/24 18:15擎,後面串上即時搜尋的就看微軟的表演。

Yanrei02/24 18:15他AI查不到2021以後的資料嗎? 不過我無聊問他板上最近某

Yanrei02/24 18:15個引戰帳號的文章分析,他竟然還講得頭頭是道耶XDD

csqwe02/24 18:16的答案 代表他的學習目標裡面可能就有 但是對他來說至少他

csqwe02/24 18:16不會認為自己在亂掰 就如同我上面說的 要讓他亂掰還比較難

tsubasawolfy02/24 18:17再來他的訓練資料庫大小跟各語言比例也決定這3.5版

tsubasawolfy02/24 18:17當搜尋引擎的應用性

csqwe02/24 18:17難 在我看來 說他在亂掰的發言更像是在亂掰 而這些發言也是

kigipaul02/24 18:17同樣的翻譯 他的潤詞 也比其他翻譯還順暢

csqwe02/24 18:18他有機會去學到的 他會把你們的亂掰當真

csqwe02/24 18:19我是不知道有多少人真正理解它的原理 不過一些發言看了真的

csqwe02/24 18:20覺得 你們好意思說他在亂掰

willihana02/24 18:21我那天把學校的python作業拿去問他 給我的建議是對的XD

as8011068002/24 18:23不要拘泥在字面上的意義,現在模型最大的問題是不會

as8011068002/24 18:23回答我不知道,這類通用模型最終的目的不會只在聊天

as8011068002/24 18:23,只能聊天誰要用這垃圾

ZMTL02/24 18:23csqwe你的意思是他拿到人家提供的亂掰資料對吧?

ZMTL02/24 18:24https://i.imgur.com/TMxAADE.png 那像這個要怎麼解釋XD

csqwe02/24 18:24越想越氣 人類才是最喜歡不知道還亂掰的那邊

ZMTL02/24 18:24除非在2021年之前,真的有人掰了一間叫Midjourney的台灣公司

ZMTL02/24 18:24然後他把這份資料找出來?

csqwe02/24 18:26雖然我不知道Midjourney是什麼 但是我反過來問你 你故意問

ZMTL02/24 18:27呃,你不知道Midjourney是什麼?

csqwe02/24 18:27問他不存在答案的問題就是你拿來佐證他不能當搜尋引擎的立

csqwe02/24 18:28論嗎? 他不會質疑你給他的資訊是錯的 你這樣使用搜尋引擎

kinda02/24 18:29紅色是它亂掰的部分 https://i.imgur.com/msNG34s.jpg

csqwe02/24 18:29的嗎? 你期望你的搜尋引擎給你這種問題什麼答案?

kinda02/24 18:30只要繼續問下去,它總是繼續掰別的。然後還說自己很有自信

ZMTL02/24 18:30https://i.imgur.com/Y1xbPix.png 那你知道Stable Diffusion

ZMTL02/24 18:30是什麼嗎?

csqwe02/24 18:30kinda 說過很多次了 他給的答案是錯的跟他不知道亂掰是兩回

kinda02/24 18:30希望能顯示 transformer decoder 的預測機率

csqwe02/24 18:31事 這兩種情況的對應方式完全不一樣Y

kinda02/24 18:31機器模型明明就可以知道每個字的預測確信度。

as8011068002/24 18:31不一定是他的輸入有問題,ML成也模糊比對、敗也模糊

as8011068002/24 18:31比對,在應該精確的地方他沒有精確的回答就會變這樣

ZMTL02/24 18:31所以你覺得2021年前有一間叫Midjourney的台灣行銷公司?他有

ZMTL02/24 18:31在某個地方吃過這份資料?

kinda02/24 18:31但ChatGPT不說,永遠繼續亂掰。

ZMTL02/24 18:32Midjourney是現在兩大繪圖工具之一,他的公司也叫Midjourney

ZMTL02/24 18:32 ^AI

maxthebiker02/24 18:33幹話藝術師

csqwe02/24 18:33那個結果只代表對他來說 Midjourney 這個字他學到過那些資

csqwe02/24 18:34訊 至於資訊來源 甚至他是不是把 Midjourney 這個字拆開來

csqwe02/24 18:35解讀 連開發者都不一定知道 但是你拿這個當作他不能拿來搜

csqwe02/24 18:35尋資訊的立論? 你用搜尋引擎都搜下去就點第一個答案 然後當

csqwe02/24 18:36他是正解嗎? 這年頭連小學生都不會這樣用google 拿這個來說

csqwe02/24 18:36chatGPT不能當搜尋引擎是不是搞錯了什麼?

ZMTL02/24 18:37不要說第一頁,你google "Midjoueney 公司" 到全部13頁都只

ZMTL02/24 18:37有一個答案,就是指向一個叫Midjourney的AI繪圖軟體

ZMTL02/24 18:37你找不到其他解釋了

ZMTL02/24 18:38就是不知道Midjourney是什麼才會把他拆開來解讀啊

as8011068002/24 18:38並沒有,你別在自己腦補了,語言模型都會建立字詞相

as8011068002/24 18:38似度表,像journey可以想像跟tour意思相近,那麼他們

as8011068002/24 18:38的權重也有很高的相似度,那麼就很容易找到毫不相干

as8011068002/24 18:39的資料

maxthebiker02/24 18:39當然翻譯文字和產生程式碼的話相對會精準許多

csqwe02/24 18:41還是那句話 你知道他一定不知道這題 為什麼你要問他 你是這

csqwe02/24 18:41樣用工具的嗎? 他只要接受到問題 他會預設你的問題在他資料

maxthebiker02/24 18:42好像還可以下西洋棋 而且棋力還蠻強的

你應該知道ChatGPT每次回答都會不一樣吧? 同樣開第二個分頁問,Midjourney這間公司

https://i.imgur.com/T7pYHTU.png

2017年台灣的軟體公司 第三個分頁問

https://i.imgur.com/uYbuGoP.png

2016年台灣的行銷公司 第四個分頁問

https://i.imgur.com/GLoHEb4.png

我承認我不知道 你真的覺得這可以當搜尋引擎用?

※ 編輯: ZMTL (123.193.180.122 臺灣), 02/24/2023 18:44:48

csqwe02/24 18:42庫裡面要有 所以他告訴你他"覺得"是的答案 你把這個叫做亂

speed702202/24 18:42bing的在這方面有改善,可惜被削弱很多了

kinda02/24 18:43就問ChatGPT能不能當搜尋引擎啊?它說了不行。

csqwe02/24 18:43掰 是你的問題還是他的問題? 然後你還拿這點當作他不適合做

csqwe02/24 18:43為搜尋引擎的依據?Y

kinda02/24 18:44csqwe 拜託你相信ChatGPT的回答好嗎?

ZMTL02/24 18:45哪個搜尋引擎搜四次會得到不同結果,第四次終於承認我不知道

ZMTL02/24 18:45這個問題的答案的

csqwe02/24 18:45kinda你完全搞錯了XD 我一點都沒有要完全相信他的答案的意

kigipaul02/24 18:46https://i.imgur.com/CHuiQ7Z.jpg 貼個我覺得還不錯的

csqwe02/24 18:46思 難道你就完全相信google給你的答案?

kigipaul02/24 18:46就只是打縮寫 也能回答不錯的答案

kinda02/24 18:47ChatGPT回答它有時候會亂掰的原因

ZMTL02/24 18:47實際上ChatGPT就是承認「他的資料庫沒有Midjourney這個詞」

ZMTL02/24 18:48有的時候他會承認他不知道,有的時候接著就到你說的他去拆解

kigipaul02/24 18:48不要全信也不要全不信,加上自己的辨別力 是個不錯工具

kinda02/24 18:48我覺得ChatGPT比csqwe的推文可信多了。ChatGPT真棒~good

ZMTL02/24 18:48Midjourney這個單字、然後可能撈到不相干的資料、然後重組

csqwe02/24 18:48你為什麼會覺得搜尋引擎就會每次都給你一模一樣的答案?笑

ZMTL02/24 18:48但事實上那就真的不知道,他甚至也清楚他不知道

csqwe02/24 18:49你用同樣關鍵字在不同天餵狗 他給的文章排序可能就會微妙的

csqwe02/24 18:50不同 而你還是會去找到你最想要的那個不是嗎?

ZMTL02/24 18:50你有沒有看到上面那四次是完全不同的結果,包含一次

ZMTL02/24 18:50"我不知道"

ZMTL02/24 18:51你現在Google Midjourney從第一頁翻到第17頁都會指向AI繪圖

csqwe02/24 18:51你明明不是用這個標準來看到一般搜尋軟體 為什麼對chatGPT

ZMTL02/24 18:51軟體,我相信一個月後也還是

csqwe02/24 18:51就雙標? 這是工具的問題還是人的問題?

ZMTL02/24 18:52我是用同樣的標準要求Google啊,你Google Midjourney你應該

ZMTL02/24 18:52拿不到一份指向台灣軟體公司的搜尋結果,不信你試試

csqwe02/24 18:53還在跳針 我上面至少回你兩次了 為什麼你要拿他一定不知道

maxthebiker02/24 18:53不是都寫在最一開始的始用事項XD

csqwe02/24 18:53的問題的表現作為你判斷這個工具能不能使用的依據?

maxthebiker02/24 18:54還是英文看不懂

csqwe02/24 18:54就算這個關鍵字是google贏了 又怎麼樣?

ZMTL02/24 18:54問題是我有一天可能會問一個我不知道他知不知道但他真的不知

ZMTL02/24 18:54道的問題啊

csqwe02/24 18:54這就代表google一定是比較好的搜尋引擎 或是chatGPT不能當

ZMTL02/24 18:55但他即使不知道,你可能也得反覆問很多次他才會說對我不知道

csqwe02/24 18:55搜尋引擎嗎? 莫名其妙欸

csqwe02/24 18:55拜託 google沒有給過你錯誤的答案嗎? 你怎麼就不擔心?

csqwe02/24 18:56你有判斷能力好嗎? 就連搜尋引擎都不是只有一個

ZMTL02/24 18:56google我會主要看第一頁,然後比對個三四頁的結果

ZMTL02/24 18:56你還真的只看第一頁第一條哦?

csqwe02/24 18:57你用搜尋引擎不是只接點第一的答案的時間點 你就已經在判斷

csqwe02/24 18:57了 所以用同樣標準來使用chatGPT很難嗎?

ZMTL02/24 18:57那google至少能第一時間讓我知道有複數選項可以判斷

csqwe02/24 18:58我當然沒有只看第一條阿 是你講的好像你只看第一條

ZMTL02/24 18:58ChatGPT會有辦法讓你知道他可能不知道這問題的答案建議你

ZMTL02/24 18:58重複幾次看看?

csqwe02/24 18:58又或者說你用只能看第一條標準要求chatGPT

ZMTL02/24 18:58不,他會講得很像是他回答了一個正確答案

csqwe02/24 19:00我只能說 如果你沒有能力判斷 那chatGPT可能真的不適合你

zizc0671902/24 19:00我覺得取決於你怎樣問chatGPTXD

csqwe02/24 19:00我建議你放棄 反正想用多的去了 然後除非你有明確理論證據

zizc0671902/24 19:01可能要請他給你幾個結果,然後自己判斷

maxthebiker02/24 19:01不然這樣啦 從今天開始你不要用google chatgpt當收

maxthebiker02/24 19:01尋引擎

csqwe02/24 19:01證明他有亂掰的這項能力(這個真的比較難) 不然你才亂掰

我用Midjourney這個例子, 舉證了他不知道Midjourney是什麼、但他知道他不知道Midjourney是什麼、 但他不會總是承認他不知道Midjourney是什麼、 他會試著想辦法用文字語言的能力拼湊出Midjourney可能是什麼然後回答你。 以上Midjourney可以替換成任何一個ChatGPT不知道實際答案(沒有讀過資料)的內容 這就是我說的亂掰,或者你覺得這不叫亂掰? 那沒關係,反正我講完我想講的了,大家看完可以有自己的判斷, 真的想把他當搜尋引擎用也沒關係,我會試看看微軟的Bing,去吃晚餐了XD

※ 編輯: ZMTL (123.193.180.122 臺灣), 02/24/2023 19:05:05

maxthebiker02/24 19:04在這邊辯也沒什麼意思 期待你的心得

※ 編輯: ZMTL (123.193.180.122 臺灣), 02/24/2023 19:06:09

as8011068002/24 19:09現在很多用搜尋引擎情境是不得不的問題,像我要找API

as8011068002/24 19:09,我他媽搜尋完還要一條一條找,像白癡一樣,直接用

as8011068002/24 19:09問的不就好了,反正對不對一測就知道,工作效率高多

as8011068002/24 19:09

naya741596302/24 19:15欸 我覺得怪怪的

maxthebiker02/24 19:16我要diss chatgpt nmsl 問 伍佰某一首歌給我回 中國

maxthebiker02/24 19:16台灣張學友唱的 而且完全沒有提到原作者

naya741596302/24 19:16怎麼可能會有人拿語言模型當搜尋軟體阿........難道

naya741596302/24 19:16其實他是AI?!

kinda02/24 19:19說到這個,以後一定一堆機器人帳號。

nungniku02/24 19:20https://i.imgur.com/IkJ7rEc.jpg

s17502/24 19:23有人拿它寫小說,玩文字冒險遊戲甚至黑白妹,很多只是你不會

s17502/24 19:23用而已

ralfeistein02/24 19:56難怪我問它理化問題 尤其是化學錯誤的地方會有點多

bitcch02/24 19:56要比較搜尋的正確性應該要拿bing那個GPT來比較吧

ralfeistein02/24 19:58還要手把手教它XD

ralfeistein02/24 20:00希望到時候正確性建立起來 那對教育應該很有幫助

guogu02/24 20:13http://i.imgur.com/JhCoLrD.jpg 他會說不知道啊

Minesweeper02/24 20:15數理可能因為缺乏精良的大量文本和標籤,所以正確性

Minesweeper02/24 20:15滿低的

guogu02/24 20:16道歉也是不一定 像之前板上試火影他一頓瞎掰

guogu02/24 20:17你反駁他還會說是你記錯要你重看

attacksoil02/24 21:22原來這麼多人不懂ChatGPT怎麼用喔

as8011068002/24 22:38其實數理問題主因還是因為ML不像人類會系統化的學習

Incentive02/24 23:27偷懶請chatGPT看paper給一些縮減

Incentive02/24 23:27內容結果都在胡扯XDDD

shiftsmart02/25 00:40可是他比搜尋引擎好用耶

cssc9cssc902/25 05:25https://youtu.be/yiY4nPOzJEg

nyanpasu02/26 01:13原本想說什麼但這裡是西恰

skyofme02/26 12:59為啥不能當搜尋引擎?因為搜尋引擎的工作是把一堆他認為

skyofme02/26 12:59相關的資料丟給你自己分析消化

skyofme02/26 13:00chatgpt是會自己分析消化,但他分析消化的基準不是資料

skyofme02/26 13:00的正確性

debaucher02/26 13:28某c也太硬掰了吧 嘴硬又跳針 誇張 笑死

langeo02/26 18:38bing機器人就是搜尋引擎