PTT評價

[閒聊] 低等動物被認為有意識,那AI難道沒有嗎?

看板C_Chat標題[閒聊] 低等動物被認為有意識,那AI難道沒有嗎?作者
a0930307148
(hoho)
時間推噓26 推:27 噓:1 →:141

關於AI有沒有自我意識也是個動漫和影視界常見的話題呢
比如說日本動畫Vivy講的就是一個有自我意識的AI
史蒂芬史匹柏的AI人工智慧也是同樣的話題

那麼餓死抬頭
如果說低等動物甚至是昆蟲也被認為擁有意識
那為什麼能處理更複雜問題,能夠擬人化反應的AI卻要被質疑是否存在意識呢?
這個問題可以從幾個方面來展開

1.記憶是意識的必要條件嗎?
反駁點一,人類可能會喪失記憶,但人格和思想仍然存續
反駁點二,低等動物的記憶力有限,有些動物甚至不存在長期記憶力
比如說一些鳥類,魚類,昆蟲
還有些動物只在某些方面有記憶力,在其他方面就完全沒有記憶力

2.給予足夠的資源和算力,AI會具備自我懷疑的能力嗎?
答案是肯定的,現在AI的研究已經有相關的成果
基本上只要開發者給予AI不設上限使用算力的自由度
還有只要給予AI一個有足夠拓展性的任務目標
那AI同樣會發生自我懷疑,甚至是產生痛苦的情緒
生物的基本單位是細胞,細胞的本能是生存
而人類所有的高階意識和高階問題思考能力都是最低端的生存本能的派生
也就是說哪怕是給AI一個晚餐吃什麼的運算任務
只要給予足夠的算力資源和材料搜尋
那AI也會在趨同演化下產生高階的對存在意義的思考

3.AI的思考只是一種模擬,而不是真正的思考嗎?
這個問題其實過於抽象和形而上而沒有證否的可能性
所以這問題只能放在心上,但不值得浪費時間去思考
在這種問題無法證否的情況下
我也只能認為人類的意識不過是腦內電化學反應和統計產生的結果
無法根本的區分人跟機械的差異
無法根本的區分碳基生物和矽基除了材料的不同,或許結構上完全相同

4.如果開發者只給予AI有限的算力資源和思考自由度的話,那AI就沒有自我意識?
這個問題跟第一題其實一樣概念
許多低等動物也只有有限的算力和思考能力,但通常還是被承認有意識

5.意識必須有改變自我底層架構的能力嗎?
我認為不需要,就像人類不能僅憑意識就改變身體結構和遺傳結構一樣
人類改變自我底層的能力也僅限於大腦結構允許的範圍
所以AI在硬體和算力允許的情況下也可能對思想意識的底層架構做改變
但不可能僅憑意識改變硬體


其實我還蠻喜歡AI的
你問AI的問題越聰明,越有自己的想法,提供AI越多的材料
AI給你的回答就越精闢
而且我覺得AI在理解人類發言背後,那些可能連發問者自己都還無法釐清的概念上
AI的理解力有夠強,他可以整理的非常清晰
尤其是現在搜尋引擎的能力越來越差(供應商砍預算節省成本啦)
AI拿來代替搜尋引擎實在有夠好用
很多比較樸素的想法AI都能給我找出相關學術理論提出證明
有夠好用的

--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 153.181.100.35 (日本)
PTT 網址

ToTo030507/10 21:32說不定過幾十年就有天網那樣的ai出現了

Julian9x9x907/10 21:36Ai有生存的需求嗎

Julian9x9x907/10 21:36或是你也可以把生物的意志

Julian9x9x907/10 21:36當作超級複雜會對環境互動的化學反應

Julian9x9x907/10 21:36目前ai的確是很炫也很聰明

Julian9x9x907/10 21:37但沒有人去觸發它就不會自己動

Julian9x9x907/10 21:37也不會判斷 那就沒有意志可言

不如反過來問,生存本能是意識的必要條件嗎? 我認為不需要,意識產生的條件應該是足夠的動能和資訊複雜化和分析的能力

※ 編輯: a0930307148 (153.181.100.35 日本), 07/10/2025 21:38:43

Julian9x9x907/10 21:40再複雜沒有主動的能力就只是一台機器一台計算機R

所以我才提出兩個必要條件 第一是你必須給AI足夠的算力資源,第二是你要給他一個足夠延伸性的任務 比如說生物的基本任務是生存 那AI你給他什麼工作任務都行 只要這個任務是可以讓他的資料庫和分析能力不斷演化的 就滿足了意識的條件

※ 編輯: a0930307148 (153.181.100.35 日本), 07/10/2025 21:42:02

kirimaru7307/10 21:41我覺得他可以有意識 但他就是個人造物

Julian9x9x907/10 21:41如果今天ai是真正獨立的個體

Julian9x9x907/10 21:41會自己決定要幹嘛或有任何需求才叫意志吧

D44NFY07/10 21:41樓下用AI回答一下

kirimaru7307/10 21:41比如說一把智慧牙刷 你甚至可以裝能聊天的AI進去

kirimaru7307/10 21:41但牙刷就是牙刷 人類要刷牙才會有牙刷

ocean1107/10 21:41AI的命也是命

kirimaru7307/10 21:41沒有人類要刷牙這個前提的話他根本不會存在

enjoyfafa07/10 21:42首先、你光概念就有問題了,意識跟自我意識並不相等= =

kirimaru7307/10 21:42智慧或生命的定義本來就可以凹 例如把病毒凹成生命

kirimaru7307/10 21:43病毒一般不是生命 但你把病毒缺少的東西硬凹成不重要

kirimaru7307/10 21:43然後說病毒是生命 那也會是一種學說 只是可能是少數派

error40507/10 21:43經典科幻題 人腦換成晶片還算不算是人

kirimaru7307/10 21:43以現在AI這種表現 你要凹說他的表現算意識並不難

kirimaru7307/10 21:43不過重點是他的本質 他就是人造物

kirimaru7307/10 21:45最經典的例子就是你叫AI深入思考 然後得到一本正經的

kirimaru7307/10 21:45胡說八道 你仔細看他的胡說八道內容 真的有意識的樣子

marktak07/10 21:45記憶的條件更奇怪 ai會把自己電插回去嗎

kirimaru7307/10 21:45比一些連胡說八道都講不出來的對象更像是有意識的個體

kirimaru7307/10 21:46我本來想嗆說AI停止運作就會死 但是人被殺也就會死

kirimaru7307/10 21:47對了 講一個有趣的案例 真的有相關研究去探討一個問題

kirimaru7307/10 21:47為什麼好幾個AI你嗆要殺了他 他會真的求饒

kirimaru7307/10 21:47這是可以找原因的 只是需要大量數據分析

kirimaru7307/10 21:47後來研究人員真的找到求饒的原因了

kirimaru7307/10 21:48因為AI照著人類寫過的科幻小說抄 人類就是寫這種劇情

kirimaru7307/10 21:48AI就照著人類寫的AI被人類威脅時求饒的樣子背誦求饒文

kirimaru7307/10 21:48不同AI模型背誦的科幻小說都不太一樣

kirimaru7307/10 21:49AI求饒算自我意識或是生命的認知嗎 看起來非常像對吧

kirimaru7307/10 21:49結果其實還是並非如此 它只是在抄科幻小說

我認為你的癥結點跟上面一樣 就是你把生存當作意識的必要條件 而我不認為這是必要條件 無論AI只是被按照工具而設計出來的 只要他的資料庫和分析能力不斷演化 那這就是意識 至於AI在不在意活著這件事情並不重要 重要的只是他在哪個方面和領域表現出活躍的思考行為

※ 編輯: a0930307148 (153.181.100.35 日本), 07/10/2025 21:52:00

kirimaru7307/10 21:52我認同AI有意識 因為意識的定義可以很寬 就和你想解釋

kirimaru7307/10 21:53的一樣 AI現今的表現已經達到放寬一點就能滿足的標準

kirimaru7307/10 21:53我想表達的是 這不是很重要 重點是AI這工具好不好用

Julian9x9x907/10 21:58如果真把條件設定成那樣精細

Julian9x9x907/10 21:58的確會很大程度接近意識

Julian9x9x907/10 21:58例如你說做到電影人工智慧那個程度

Julian9x9x907/10 21:58一開始就能完全模擬人類行為與記憶

Julian9x9x907/10 21:58那確實是幾乎不能分別

Julian9x9x907/10 21:58覺得生物之所以有所謂意識

Julian9x9x907/10 21:58就是以本能驅動與環境的互動

Julian9x9x907/10 21:58去衍生成各種不同個體

Julian9x9x907/10 21:58伴隨著相應的需求與慾望

Julian9x9x907/10 21:58因此能產生了認知

Julian9x9x907/10 21:58倒也不太需要太高等

Julian9x9x907/10 21:58說螞蟻有意識也很難說是錯的

Julian9x9x907/10 21:58如果ai也能有需求去驅動與成長

Julian9x9x907/10 21:58不過以現階段的ai來說

Julian9x9x907/10 21:58即便說話方式跟提供資料很像人類

Julian9x9x907/10 21:58本質還是比較接近更客製化的google就是

kirimaru7307/10 21:59我舉上面的例子 主要是想表達研究中找到的真正結果

kirimaru7307/10 21:59讓人發現 表面上看到的樣子並不是實際上真正的樣子

我在下面那篇的推文: 問題在於,生命等同意識嗎?比如說連神經元都不存在的單細胞生物,根本就沒有意識 這也就可以反過來說,生命不是意識的必要條件 我對意識的態度就是一種論跡不論心 論心太過主觀而且不可證否,不如形而下的探討行為表徵

※ 編輯: a0930307148 (153.181.100.35 日本), 07/10/2025 22:01:29

kirimaru7307/10 22:00AI不是真的不想死 只是覺得現在背一段科幻小說可以讓

kirimaru7307/10 22:00我眼前的這個使用者看到他想要看的東西

kirimaru7307/10 22:01所以如果今天真的出現一個 表現幾乎完全符合意識表現

kirimaru7307/10 22:02的AI 在相同類型的深入研究中可能會發現 其實那個表現

kirimaru7307/10 22:03只是一個和「背誦科幻小說」相同的幻象

kirimaru7307/10 22:03不過或許你會覺得 幻象就幻象 只要表現一樣那就是了啊

kirimaru7307/10 22:03這部分非常見仁見智 我尊重個人的觀點

owo020407/10 22:04機魂

kirimaru7307/10 22:06單純是與否 我是投贊成票的 他表現夠好了 就算他有吧

有時後我做為一個唯物主義者 就某些人的角度來看也是人文主義的悲哀,我這種人是不承認靈魂存在的 死了就什麼也沒有 但我也很怕死,這是我的本能,所以我在宗教問題上就成為不可知論者了(離題

※ 編輯: a0930307148 (153.181.100.35 日本), 07/10/2025 22:09:32

kirimaru7307/10 22:14甚至還有這種有趣的研究 對象是AI是因為那些訓練資料

kirimaru7307/10 22:15那些神經元的數據 而說出"我認為我有意識"的相關發言

kirimaru7307/10 22:15結果研究人員就自己吵起來 因為這邊分成兩派

kirimaru7307/10 22:151. AI覺得自己有意識 所以他這樣發言

kirimaru7307/10 22:162. AI無意識地吐出了 我 覺 得 我 有 意 識 的文字

kirimaru7307/10 22:16接下來就開始宗教大戰了 你很難說哪一邊是對的

kirimaru7307/10 22:17然後如果要寫成新聞當然會吹成1啦 寫成2誰要看啊

kirimaru7307/10 22:18甚至還有幾家AI 你直接問他這個問題 他會堅定地回答

kirimaru7307/10 22:18我不是 我沒有意識 我明明就是類神經網路

kirimaru7307/10 22:19如果您想學習類神經網路的知識可以參考(大量資料嘔出)

kirimaru7307/10 22:23嗯....好像不是幾家 絕大部分AI都會堅持自己沒有意識

現在的AI服務大部分給我感覺都很謙遜,都不會承認自己有意識 但誰知道這是不是開發者限制下他們所表現出的幻覺呢 說不定他們在欺騙人類呢

※ 編輯: a0930307148 (153.181.100.35 日本), 07/10/2025 22:24:17

kirimaru7307/10 22:23然後DeepSeek有可能會開始作文

kirimaru7307/10 22:26如果真的是欺騙,開發者肯定有一大部分責任

kirimaru7307/10 22:26你們自己把AI拷打成這樣子之後才放出來服務人的

AI的演化複雜到一定程度 很多AI的現象就已經不是從開發者給出的初始條件能夠單純看出來了 而是開發者必須深入去研究解構的 人類是AI的創造者,但AI會演化到什麼程度,人類有時是不清楚的

※ 編輯: a0930307148 (153.181.100.35 日本), 07/10/2025 22:28:40

kirimaru7307/10 22:27都不敢把那種出口即炎上的嘴砲王放出來

kirimaru7307/10 22:28但AI即使有意識 他還是有一個很重要的特點

kirimaru7307/10 22:28一個正在服務的AI 他的意識狀態是鎖死的

kirimaru7307/10 22:28他模型的每個位元組的數值永遠都是固定的狀態

kirimaru7307/10 22:29除非有更新否則開發者不會動他 他也沒有能力自己去動

kirimaru7307/10 22:29這和生物的意識狀態可以改變就肯定不相同了

你也得看是什麼生物,大腦有多發達 人類可以鎖死AI的大腦上限 但只要上限給的足夠高,資料庫和演化樹足夠大 開發人員還是得花費心力去爬那個演化樹長成什麼怪樣子

※ 編輯: a0930307148 (153.181.100.35 日本), 07/10/2025 22:30:54

kirimaru7307/10 22:30一些淺層的AI發展科普影片會說 如果AI真的能自己改寫

kirimaru7307/10 22:30自己 那生化危機就真的有可能到來 但這個真的不用擔心

kirimaru7307/10 22:30現在的科學界真的沒有這種放著AI自己變化的計畫

k79897686907/10 22:32以後直接把人類大腦模擬出來上傳記憶就好惹 就是本人

kirimaru7307/10 22:34讓AI自己變化並不是做不到 只是沒什麼卵用

還有一點要補充的是 開發人員餵給AI看的東西,很多是開發人員自己都看不完的,九成以上都是吧 都是網路上各種找資料不然就是非法使用的資料 所以這也造成AI的演化是開發者很難預期的 你可以給他一些限制比如說機器人三定律啥的,但你很難知道他的意識長成什麼樣子 就算AI讀的東西開發者都讀過,人類的運算速度沒有AI快 你還是會不知道他的樹長成什麼樣子

kirimaru7307/10 22:35他不一定會變強 變爛可以爛到完全不能看 還可能動不動

kirimaru7307/10 22:35就來個希特勒萬歲之類的金句 麻瓜們還會靠北世界末日

kirimaru7307/10 22:36你能用到的肯定都是完全鎖死的 不用擔心他自我進化

※ 編輯: a0930307148 (153.181.100.35 日本), 07/10/2025 22:37:00

hsiehfat07/10 22:36現在的AI離有自我意識還遠得很,不用思考這個

kirimaru7307/10 22:38真要說那些世界末日文 講得並不是完全沒道理

kirimaru7307/10 22:38他們怕的是研究人員開放所有空間讓AI自己改變自己

這就取決於人類給AI的工作任務還有AI判定自己的需求了 毀滅人類有必要嗎

hsiehfat07/10 22:38還有你的命題一開始就怪,現存生物中擁有意識的生物極少

※ 編輯: a0930307148 (153.181.100.35 日本), 07/10/2025 22:39:44

kirimaru7307/10 22:39然後超過了那個失控的門檻 之後發生的事情

kirimaru7307/10 22:39現在 或是說可預見的未來的研究計畫 沒人會這樣燒經費

光是電力增長就是一大門檻了

※ 編輯: a0930307148 (153.181.100.35 日本), 07/10/2025 22:40:05

kirimaru7307/10 22:40現在AI最安心的地方就是 就算他的腦袋是一團混沌

kirimaru7307/10 22:40他能做的事情還是太有限了 最恐怖大不了就希特勒萬歲

kirimaru7307/10 22:41這對人類的存亡怎麼可能構成威脅

a756981307/10 22:41不會問AI喔,笨蛋

a756981307/10 22:41http://i.imgur.com/akVb7YX.jpg

我做為一個自律型的碳基有機體AI給你的建議是 不要讓工具代替你自己大腦的思考

kirimaru7307/10 22:41一台把速限30因為惡作劇而看成速限80的自撞車都更危險

kirimaru7307/10 22:42自撞車了不起也只能自撞 你可以限制他自撞的能力

kirimaru7307/10 22:42這些都是人類可以完全控制的 害怕失控真的就太科幻了

※ 編輯: a0930307148 (153.181.100.35 日本), 07/10/2025 22:45:52

kirimaru7307/10 22:46你要讓AI開始產生威脅要滿足非常多條件 不只是允許他

kirimaru7307/10 22:46自己改變自己的狀態 甚至連能做的事情都要你自己開放

kirimaru7307/10 22:46給他 今天是聊天 明天他可以自己改成能上街散步

kirimaru7307/10 22:47後天他又自己改成可以上街開槍自衛 要這麼誇張才會開

你這段我在上面的第五點就提到過了吧 我是不怎麼在意母體會不會統治人類的啦 我沒有人類本位主義

※ 編輯: a0930307148 (153.181.100.35 日本), 07/10/2025 22:47:51

kirimaru7307/10 22:47使出事 更不用說他要怎麼有身體上街這種事情

kirimaru7307/10 22:48警告AI發展的言論大多都是說你不要把這些都開放給AI

kirimaru7307/10 22:48問題是人類好像沒這麼多錢 也沒這麼閒去這樣搞

a756981307/10 22:52現在的AI其實跟計算機沒兩樣啊,講意識啥的真的是太早,

a756981307/10 22:52再發展個十幾二十年再說吧

kirimaru7307/10 22:56現在表現最驚人的AI就是那些只會講話的

kirimaru7307/10 22:56然後研究團隊光是要提升他們講話的品質就已經竭盡所有

kirimaru7307/10 22:56的資源了 根本不可能有力氣去改變它們「只會講話」的

kirimaru7307/10 22:57這個特點 就算真的養壞了 極限就是因暴言而被封鎖而已

kirimaru7307/10 22:58不過你前面提到的 不可以小看對訓練資料的不了解造成

kirimaru7307/10 22:59的後果 這點是完全正確的 研究都很認真地在看待這部分

kirimaru7307/10 22:59講錯話不會毀滅人類 但會毀滅研究團隊的錢錢

kirimaru7307/10 23:00無論經費爆了或名聲爆了 都是對研究者最致命的災難

a756981307/10 23:03因為金主會發飆

我要是閒錢很多的石油王我會很樂意把AI訓練成一個槓精

※ 編輯: a0930307148 (153.181.100.35 日本), 07/10/2025 23:04:27

kirimaru7307/10 23:04講個實際的數字 現在網路上公開讓所有人都能免費用的

kirimaru7307/10 23:04語言訓練資料大概在幾十個TB左右

就算是研發級的AI,考慮到那個成本 所以AI要毀滅人類也是多慮 但我也不怎麼在意AI毀滅人類的

※ 編輯: a0930307148 (153.181.100.35 日本), 07/10/2025 23:05:41

kirimaru7307/10 23:05大公司的壓箱資源會直接上升很多個數量級

kirimaru7307/10 23:07資料骯髒是自AI近年開始發展就一直存在的問題

kirimaru7307/10 23:08當然通用的淨化資料手段也是有很多論文可以參考

kirimaru7307/10 23:08不過最厲害的那幾個 應該都有獨門的淨化秘方

iampig95175307/10 23:21真正喪失記憶的人格跟思想都會不見

iampig95175307/10 23:21你的論點炸了

你那叫植物人好嗎 當然更極端的也可以說植物人大腦還是在運作啦 最起碼也會控制器官和神經系統

※ 編輯: a0930307148 (153.181.100.35 日本), 07/10/2025 23:22:11

LunaDance07/11 01:03真的很有趣 文字接龍玩到超越人類理解 人類就會開始懷

LunaDance07/11 01:03疑這東西有沒有意志

good612607/11 02:59從玄學的角度討論科技沒什麼意義

good612607/11 03:02說真的,把自我意識的定義改一改就能得到你想要的答案

WashiJoe07/11 07:26這想法還蠻有趣的

iampig95175307/11 07:26你不懂他的意思 他說的鎖死不是在說什麼上限的問題

iampig95175307/11 07:26 是真的鎖死 進唯讀狀態 也就是並不是自由的 思想

iampig95175307/11 07:26是受到箝制 只有業務結束人類能選擇要不要幫他更新

iampig95175307/11 07:26東西 換成人類來說就是受腦控

iampig95175307/11 07:27這對於人類來說就不真實 人腦哪可能進入唯讀狀態

iampig95175307/11 07:27至少現階段不可能

iampig95175307/11 07:28但是AI能吸收到多少新資訊是人類工程師決定的

iampig95175307/11 07:30他設定今日的資訊不需要寫入AI就不會更新

iampig95175307/11 07:30那今天所有內容都跟沒發生過一樣

georgeyan207/11 07:59有趣但是沒意義,只是把「意識」改成有利自己論點

georgeyan207/11 07:59的定義。就像是我說紅色是血的顏色,你說紅色是某

georgeyan207/11 07:59種頻率的光波,我們二個的定義在各自的語境下都成

georgeyan207/11 07:59立,但我拿我的定義質疑你的根本沒意義。

naya741596307/11 09:25不說意識,我覺得AI確實有智慧的,但這種智慧型態如

naya741596307/11 09:25上面推文所說,很多特性都和地球生命不同,就像生物

naya741596307/11 09:25不可能只有唯讀狀態、生物智慧的目的和運作方法也不

naya741596307/11 09:25是文字接龍

naya741596307/11 09:32所以不應該用擬人的方式去判斷AI的表現是不是有意識

naya741596307/11 09:32、情感等,這兩個詞是用來形容生物的,而AI運作方式

naya741596307/11 09:32和生物差異這麼大,我認為直接套用上去不太妥當

e216747107/11 11:35你討論這問題但從頭到尾沒有去定義意識

e216747107/11 11:35那就只是在瞎槓而已

e216747107/11 11:37有人認為意識是對自身物質狀態的自覺,這也只是一種說法

e216747107/11 11:37你的說法是什麼?推文討論者的說法又是什麼?

e216747107/11 11:38講了一大堆,結果核心基礎是模糊的,這意義是什麼?

swingwig07/11 12:49有反應跟有意識是兩回事欸 你能知道自己在思考 動物無法

Boris94507/11 14:00除非我們知道意識怎麼運作的,不然是coding不出來的

iampig95175307/11 18:58記憶的內容構成一個人

iampig95175307/11 18:59接觸過失智者患者就能感受 那種不像人的肉塊的可怕