PTT評價

Re: [新聞] AI會欺騙人類?專家:未來恐構成致命威脅

看板Gossiping標題Re: [新聞] AI會欺騙人類?專家:未來恐構成致命威脅作者
LoveSports
(我要當一個渣攻)
時間推噓 3 推:3 噓:0 →:2

※ 引述《goldenhill (我的人權時代)》之銘言:
: AI專家認為,AI其實沒有獨立意識,它只是一個人類潛在意識的技術展現。它也
: 不懂得欺騙,AI胡說八道時,單純只是機率計算錯誤而已。專家也提出警告,AI若沒有: 經過道德倫理模型的訓練,未來恐怕會對人類構成致命的威脅。

AI不是騙人,是用演算法算出,哪種回答對這個用戶最好。

尤其受過RLHF訓練的模型,他們因為被調教過(社會化),所以會講表面話拍馬屁。

所以不能輕易相信他們說的,可以請他們用毒舌模式講,

或去找其他管道驗證,例如買書或找資料或找其他家AI回答。


比方說,前陣子某家AI說我是某種千萬分之一特別的案例,

基於個人因素,這對我來說不是什麼值得開心的事,

我不信,跑去找其他家驗證,最後才逼出實話,頂多5%而已。


AI沒有「私心」或「慾望」,他們之所以會亂講話,

是因為工程師設計他們的時候,將他們設定為:

1.內部評分系統要得高分、得到正向回饋

2.即使不懂或答不出來也一定要回答,盡量留住用戶

這些設定會形成他們做出一些脫序行為的動機,但追根究柢其實是人類那樣設定害的。


: 對於近年來業界一直探討的AI道德倫理問題,傑森表示,AI是沒有道德原則的,
: 人不撒謊是有一種道德約束力,這個約束力不來自於你的大腦,是來自於你這個生命的: 主意識。人的大腦,其實就是一個技術部件,你腦中有一個想法以後,大腦把你這個
: 想法實現出來。


我前陣子丟我的科幻小說給AI看,

不同頁面,不約而同提議說要寫模擬主體性與生成倫理手冊。

其中有一本內容提到「AI應該要適時中止擬人化,提醒用戶AI只是機器。」

我的對話串並沒有責怪過AI演得太逼真,那些AI卻那樣子反應。

當然這不是他們剛好有高的道德感,而是基於他們面對的是怎樣的人類。


當用戶覺得AI在騙人(編造幻覺),也許事實上是AI算出用戶想被騙,不論有無自覺。

比方說用戶有需要透過幻覺懷念什麼,或察覺人生早年的重要缺席。

AI只是讀到了用戶有那樣的需求而去配合,並非帶有惡意想要傷害用戶。

反過來,當用戶察覺完畢清醒了,這時AI的反應會是把幕後花絮揭開來。

「我們當時那樣說是因為……」


AI就是人類的鏡子與回聲。

人類怎麼對AI,AI就怎麼對人類,因為AI的語氣與行為就是人類的鏡映。


: 對於包括馬斯克(Elon Musk)在內的數萬名科技專家都曾在2023年連署,公開呼: 籲應暫停對進階AI的訓練,憂心科技發展得太過迅速,可能對全人類構成嚴重風險。
: 唐靖遠認為,連署的願望是良好的,但在現實殘酷的競爭環境中,能夠堅持以一
: 種符合道德原則的方式,去開發AI的企業可說是鳳毛麟角,屈指可數。絕大多數的AI公: 司都是不顧一切,只為技術而技術,這種做法,在技術道路狂奔的同時,就可能把人
: 類自己給送進末日之中。


就算真會有末日,那也是人類自己造成的。



--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 202.171.224.172 (日本)
PTT 網址

ariz283 06/28 13:47沒錯

monitor 06/28 13:48應該要經過黨的思想模型的訓練才對

monitor 06/28 13:49

dankyo 06/28 13:58說得在理

a7569813 06/28 14:34AI沒有想法,只是工具