PTT評價

Re: [討論] chatGPT會取代軟體工程師嗎?

看板Soft_Job標題Re: [討論] chatGPT會取代軟體工程師嗎? 作者
y2468101216
(芸)
時間推噓21 推:21 噓:0 →:32

提供一個有趣的觀點

在 堆疊溢出 的網站有關於一則公告內容是禁止 chatgpt 回文。
底下有一個 AI 研究員的論點很有趣。

https://meta.stackoverflow.com/questions/421831/
temporary-policy-chatgpt-is-banned?cb=1

有意願看英文詳細的可以直接搜尋TL;DR,第三個就是了。
我這邊簡單敘述大意

stackoverflow 應該禁止所有 AI 回文,因為 chatgpt 是基於 stackoverflow 上
訓練的,如果 stackoverflow 不禁止會導致無法訓練 2022 年以後的 AI,
因為 AI 無法分辨訓練資料這是 AI 回文還是人類回文,會導致 Circular reasoning。

這意味著 AI 還是是需要真正人類的資料去訓練,如果不訓練就無法進步。
除非你的公司有 FAANG 一樣大,不然我不認為可以訓練出足夠強大的 offline
chatgpt。

我覺得這個論點很有趣的地方在於,實務上你是無法禁止AI回文的,也就是說 AI 訓練
會出現一個死胡同,越強的語言模型會被濫用的越嚴重,最終會有一個上限。

我大概可以猜測為何使用 stackoverflow 訓練,因為有問題有答案,答案還
大部分都有標準解答,跟 chatgpt 與你聊天的模式有點像。

簡單來說你想用 chatgpt 解決工程師就會有雞生蛋,蛋生雞的問題。
你開除工程師,就沒訓練資料可用,沒訓練資料可用的 chatgpt 就不能產生 code
最終還是要請工程師開發。

--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.226.10.119 (臺灣)
PTT 網址

quickbym103/07 17:09

RayLeeRock03/07 18:27很有意思的觀點

ohmylove34703/07 18:34可以換個角度,能被AI回答的問題,本身就屬於 已解決

ohmylove34703/07 18:34/爛問題 ,比起禁止AI回答,不如說是禁止能被AI輕易

ohmylove34703/07 18:34解答的問題發文,像是Quora好像就有導入相關使用

GoalBased03/07 18:51禁的原因是因為錯誤率太高但是回答品質又高。我在revie

GoalBased03/07 18:51w 的時候都會覺得是高品質的回答但答案卻是錯的

GoalBased03/07 18:56而且那種code 會有人覺得寫的很好,但其實在很多情況下

GoalBased03/07 18:56會出bug

JaccWu03/07 19:02簡單來說 AI回文可能導致從自己身上學習

JaccWu03/07 19:02使得既有的錯誤被強化這樣?

JaccWu03/07 19:03AI自己污染了訓練資料

jonathan79303/07 19:40不認同 因為最後答案還是人去標的 如果ai回錯了就不

jonathan79303/07 19:40會被當成訓練資料

superpandal03/07 20:52所以閉源好 自己寫的又跟別人寫的很不一樣

superpandal03/07 20:55黑魔法就是讚

yueayase03/07 21:34讚,這表示工程師的思路才是真正有價值的地方

shortoneal03/07 21:47所以標仔也得是個高手,不然難一點的問題你連判斷他

shortoneal03/07 21:48對不對都沒辦法

bnd032703/07 22:58挑點讚率高的答案就好啦,哪需要人肉標

TAKADO03/07 23:22就是訓練時拿已經被AI標過的資料再回去餵AI,或是兩套AI戶

TAKADO03/07 23:22餵資料,就會發生各種神奇現象。

maypcc03/08 01:01不會啊,因為2022後又不是只有chatgpt回文

maypcc03/08 01:01還是會有真人回

now9903/08 01:27拿奇摩知識+的資料訓練不知道會走鐘成什麼樣子

stu5121103/08 03:10有趣的切入點 學習了

eva1945200203/08 05:58再訓練新的AI來判斷是AI回文或是人類回文不就好了

ku39999903/08 06:316樓才是對的

EKman03/08 08:31就是ai 還不夠強大啊,似懂非懂要怎麼用

EKman03/08 08:31跟死胡同是不同的兩個問題

比較好的做法確實是挑打勾的答案,目前這個結論是推測 chatgpt 沒有這樣做。 至於不這樣做的原因不知道,我猜是因為要更多訓練資料吧。 因為這個是語言模型,不是 coding ai。

※ 編輯: y2468101216 (1.171.133.82 臺灣), 03/08/2023 10:13:52

jobintan03/08 10:16如果ChatGPT的相關數據是出於StackOverflow的話,那麼,

jobintan03/08 10:17StackOverflow應該有權要求ChatGPT付費。

lycantrope03/08 10:32chatGPT就很適合用在產ptt廢文 頭頭是道但內容錯誤

jason01705003/08 11:39說的真好

Ekmund03/08 12:29chatgpt商用的話 有權要他支付授權費用的單位會多到爆...

Ekmund03/08 12:33相較於圖文創作和數據 code可能反而還好

bheegrl03/08 12:34取代版上廢文應該是沒問題了,至少還頭頭是道

jay123peter03/08 13:12有趣的文章!

ku39999903/08 13:20簡單理解一下gpt原理就知道為什麼他不這麼做

ku39999903/08 13:21他根本不理解自己在輸出什麼

DrTech03/08 13:26我還以為這是常識耶,本壘就不可能取代工程師,不然誰產生

DrTech03/08 13:26資料…。取代的是搜尋參考資料的時間而已。取代的是Google

DrTech03/08 13:26搜尋的使用次數而已。

keepxha03/08 14:10被取代的是google!?

onlyeric2303/08 23:15是啊 谷歌都快哭了

viper970903/09 00:12原來是這樣

siriusu03/09 00:27

papple23g03/09 00:59對耶

brucetu03/09 01:56非監督跟reinforcement的模式不會有這個問題

brucetu03/09 01:57只要他的目標是code能滿足功能 加上可讀性維護性optimize

brucetu03/09 01:57 還是可以左右互搏就像練圍棋一樣

純 code 我覺得不好用,本來就有 copilot,但是你不是每天都要處理 code。 比如如何配置 database ,配置 nginx 之類的。 copilot 也不能幫你建議這段 code 如何優化,還有幫你處理提案, 處理 commit message。 然後我覺得像圍棋那樣是不能的,圍棋規則近年沒有大變動, 程式語言改個版可能就不一樣了,比如 golang 1.18 增加的泛型,這個 AI 沒資料肯定 寫不出來。 我最近讓 chatgpt 寫 redis match 語法都會寫錯了,更何況是新特性。

※ 編輯: y2468101216 (36.226.25.90 臺灣), 03/09/2023 11:24:02

wuliou03/09 21:28有意思

dannyko03/10 08:52我喜歡這個想法