PTT評價

Re: [請益] 為什麼有人說AI會讓資工人失去工作?

看板Tech_Job標題Re: [請益] 為什麼有人說AI會讓資工人失去工作?作者
SnowFerret
(雪貂)
時間推噓17 推:18 噓:1 →:46

先講結論, 後面再從AI原理開始解釋.

1. AI會不會取代人類?

就目前人類技術所產生的AI不會取代人類, 但是不會使用AI的人會被懂AI的人取代.

2. AI極限在哪裡? 他的潛力在哪裡?

AI的潛力: 將人類的抽象思考或概念轉換成與讓機械實際執行步驟的介面,
或者說, AI是連接人類世界與機械世界的編譯器.

AI的極限: 不管AI回答怎麼像人類, 現在的AI都無法"理解"人類所說的意義.
既然無法理解, 也就無法思考, 更無法創造.

= AI的原理 =

AI背後的運作原理是由多個神經元所連成的神經網路,

但這種數位神經網路跟生物神經網路還是所差甚遠.

說穿了只是用不同的參數, 以及調整比重, 讓AI產生最有可能的答案.

根本的運作原理還是統計和機率. AI不會想這個答案是否符合道德,

不會思考是否符合邏輯, 不管它是否符合基本物理定律.

如果A要解答的問題是, 請告訴我1+1=? 我們不斷的告訴AI, 1+1=3.

最後AI就會說1+1=3. 他不會思考, 不會判斷, 只會根據訓練資料中

出現機率最高的結果作選擇. 這也就是為什麼AI經常出現一本正經的胡說八道的結果.

https://i.imgur.com/3677Fwj.jpeg


= AI幻覺 =

AI只在乎生的"數據"是否通順, 不在乎內容邏輯.

這裡用"數據", 是因為AI其實不理解這些字的"意義".

對AI來說, 這些只是對應這個問題最有可能的回應數據.

胡說八道的原因是因為AI的訓練數據來自各種不同領域, 這些數據交互換混雜後,

經由AI取出部分"最有可能的答案"互相排列組合.

就會出現意義不明或是不合理的結果. 這就是所謂的AI幻覺.

= AI人格 =

AI幻覺也是AI聊天機器人出現人格分裂的原因.

AI並不是出現了不同人格, 而是AI從不同人格的訓練資料裡面提取部分結果進行輸出.

這些資料包含各類聊天內容, 也包含小說和故事.

所以才會出現多種人格以及極端人格的回應.

AI回應中所帶有的情感都是屬於AI幻覺的產物.

對於AI來說, 這些都是數據, 只不過經由人類理解之後, 私自的認為這些字句帶有感情.

= AI潛力 =

儘管AI因為技術上的限制, 無法避免幻覺的出現.

但AI還是可以在有既定流程或是可以被固定算法求得最佳解的工作領域獲得大量應用.

以下舉例可能的應用場景.

1. AI輔助程式設計: 程式語言是個嚴謹邏輯的語言, 以及存在很多固定使用方法.

AI幻覺的缺點在這個領域可以很大程度的避免, 但是人類還是要擔任監督者的腳色,

用AI組合出自己想要的成果.

2. AI輔助運輸: 運輸包含運貨, 倉儲, 交通. 這些都可以轉換成數字,

讓AI使用演算法最佳化相當合理. 事實上, 自動化倉儲早就在使用了,

最近是因為自動駕駛得益於AI物體辨識功能, 所以讓自動化貨運和自動化駕駛搬上檯面.

3. AI輔助動畫/圖片/廣告文宣的生成和編輯: AI幻覺在這裡反倒可以視為部分卻優點.

在藝術創作領域中, AI幻覺倒是不被重視, 反倒可以刺激作者靈感.

藉由AI來實現使用者的抽象概念, 讓進入圖像工作領域的門檻大幅降低.

AI的輔助作畫可以非常大幅度的縮段生產時間.

4. AI輔助文書文件和報表的成生和編輯:文件和報表都是有固定模式的.

利用AI辨識使用者的抽象概念, 提供多樣化建議縮短生產時間是非常有潛力的應用.

5. AI輔助工程軟體上的輔助設計: 類似於程式設計以及文件生成, AI有非常大的發展空間

6. AI輔助醫療診斷: 雖然AI幻覺會給錯誤判斷, 但是AI可以改成給予廣泛的建議

以及提供病症可能性解方, 補足診斷醫師的盲點, 避免醫師自己的偏好/偏見.

用AI結合病人的身體數據分析可以避免醫師不小心忽略並不容易注意的的地方.



錯誤應用:

AI輔助法律訴狀撰寫: 法務相關事務必須要謹慎, 正確理解法條, 要斟酌字句, 要推演邏輯, 要思考論點. 這全部都是AI的弱點, 任何一點點的AI幻覺都可能引發非常嚴重的錯誤.

= 美律師用ChatGPT寫訴狀 被抓包引述判例「攏係假」=
https://news.ltn.com.tw/news/world/breakingnews/4316350

這個案例也很清楚的展示, 生成式AI在缺乏監督的的情況下很可能會鑄成大錯.

因為AI無法理解, 無法思考, 無法創造.

所有的輸出和回應都是線性組合後得到的最佳"數據". AI不知道其中的意義.


結論:

在人類真正發展出可以思考的AI之前, AI不會取代人. 因為AI需要監督.

懂得使用AI的人會取代不會是用AI的人.

一直在那邊嚷嚷AI要取代人類的, 很可能就是會被取代的那一群.

因為這些人根本不知道AI是怎麼運作的.

- - -

題外話, 在發展出有意識的AI之前, 人類必須要了解 "何謂意識"

這種高階AI發展的門檻最後是卡在腦神經科學上, 而不是計算機或是半導體.

"何謂意識"是人類有思考能力以來的千古難題.

我自己是不認為在我們有生之年人類內能夠破解"意識"

--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 149.117.216.29 (臺灣)
PTT 網址
※ 編輯: SnowFerret (149.117.216.29 臺灣), 06/01/2023 17:39:54

Weky 06/01 17:41AI就和之前元宇宙系列一樣 下一代燒給我說系列

InfinitySA 06/01 17:51

cs410567cs 06/01 17:56一堆似是而非的東西

tr920 06/01 17:57推,解答了大部分人心中的疑惑

SnowFerret 06/01 17:57不能說完全跟源宇宙一樣

SnowFerret 06/01 17:57殺手級應用是肯定會出現的

SnowFerret 06/01 17:57現在是因為還有門檻要解決

SnowFerret 06/01 17:57例如 著作權歸屬 公司智慧財產洩漏 訓練資料不足

SnowFerret 06/01 17:57但是對於Adobe Microsoft Google這些問題都不大 近

SnowFerret 06/01 17:573-5年內必有突破

SnowFerret 06/01 17:57但是我主要是想說AI並不如大多數人想像一樣萬能

tr920 06/01 17:58如果AI可以自己發明一種程式語言,才有資格說AI已

tr920 06/01 17:58經有了意識

InfinitySA 06/01 17:59看到有些人說 很多科技業大老闆或企業家說ai會取代

InfinitySA 06/01 17:59但我覺得應該要有自己思考的能力 他們說的不一定對

CannedHamEgg06/01 18:42AI目前沒辦法完全取代 但你也說了 目前人還是要監

CannedHamEgg06/01 18:42督AI 也就是AI可以取代部分人的工作 也就是部門可

CannedHamEgg06/01 18:42以因此縮編 這就是取代 部分取代

zaiter 06/01 18:48可以不斷告訴一個小孩1+1=3 他長大優惠覺得就是3 低

zaiter 06/01 18:48能文章

godnnn 06/01 19:03你這篇說是chatgpt 寫的我都信

kknnightt 06/01 19:33同意樓上說的小孩1+1=3,說不定只是是喂進去的資料

kknnightt 06/01 19:33侷限了AI的計算 與人類不同

CGDGAD 06/01 20:53聽起來AI核心是蒙地卡羅法

a1234567289 06/01 21:06蒙地卡羅法只是AI的其中一種算法

afking 06/01 21:10蒙地卡羅是可以應用在機器學習,但你不能稱之核心

jasontmk 06/01 21:16結論帥氣XD

jasontmk 06/01 21:17懂得使用AI的人會取代不會是用AI的人.

jasontmk 06/01 21:17AI就當作是高效率作業員

jasontmk 06/01 21:18而且不會靠北

tn601374 06/01 21:38取代的都是廢物

tn601374 06/01 21:38有能力,ai算個屁

jordan0522 06/01 21:55講那麼多結果用gp-3 XD

q2825842 06/01 22:10很多關於AI的討論,陷入過於極端的問題,或是進入

q2825842 06/01 22:10科幻小說的範疇。相對這篇蠻多點比較接近現實情況

gene123 06/01 22:19推,說明清晰

dhm520 06/01 22:56一直跟一個人說1+1=3,最後他也會說1+1=3啊

SnowFerret 06/01 23:05但是人類接受數學教育後會反思1+1=3是否合乎邏輯

SnowFerret 06/01 23:05這是人類跟AI的差異

SnowFerret 06/01 23:05人類如果不思考 只會聽命形式 真的比AI還不如

SnowFerret 06/01 23:05行事*

greenie319 06/01 23:53人類所謂的知識應該可以很粗略分成兩類,以人類發

greenie319 06/01 23:53現的科學規則推演和人類主流共識,科學規則有客觀

greenie319 06/01 23:53事實及理論證據(至少在人類的觀測下),是不能多

greenie319 06/01 23:53數決的,但便主流共識類的,恰好符合RL的天性,AI

greenie319 06/01 23:53有高機率做的比人類好。

Izangel 06/02 02:02你這不能解釋為什麼chatgpt看了一本推理小說,可以

Izangel 06/02 02:02回答兇手是誰。現在的ai不是只有靠機率決定。

Izangel 06/02 02:05上面說的數學教育就是一種監督。你只是故意給ai錯誤

Izangel 06/02 02:05的監督。你在小島上教所有小孩1+1=3,人類不會比ai

Izangel 06/02 08:06全沒提到大型midel出現「湧現」的能力

doranako 06/02 08:25那個回答感覺張飛跟關羽有基情

snoopy79042806/02 10:32小孩你1+1=3多教幾次就被騙了 這個權重增加我看是

snoopy79042806/02 10:32同一個道理

vi000246 06/02 10:56就跟現在新聞媒體洗腦很像 大家告訴你這東西很好

vi000246 06/02 10:56久了你就以為很好了

LPCbaimlly 06/02 11:33你要求AI回答1+1=3他當然就回答給你聽啊,老闆說1+

LPCbaimlly 06/02 11:331=3為了薪水你還不點頭稱是?

SnowFerret 06/02 11:43AI湧現這個能力因為數據過於龐大 尚無法有效的用科

SnowFerret 06/02 11:43學方法分析

SnowFerret 06/02 11:43在這討論這種未定論議題又不提出數據佐證 只是淪為

SnowFerret 06/02 11:43幻想討論而已 跟在說AI=魔鬼終結者一樣 沒有任何意

SnowFerret 06/02 11:43

SnowFerret 06/02 11:44我應該是在科技版不是宗教版或是科幻小說版吧?

※ 編輯: SnowFerret (49.216.164.253 臺灣), 06/02/2023 11:51:12 ※ 編輯: SnowFerret (149.117.216.29 臺灣), 06/02/2023 14:44:06

Coolruehl 06/02 21:02