[討論] 由AI判案或辯護的時代會到來嗎?
跟朋友聊到心靈判官,
故事裡面有個叫希比拉的黑箱系統
不只可以防範犯罪的發生
還可以讓大部份人心甘情願地把自己的人生交給它安排。
當年看到這個設定本來覺得太誇張離奇了
但幾年後看到AI發展起來,能作到的事越來越多。
如果之後法官判案或律師辯護時開始參考AI意見
乃至乾脆跳過人類的判斷,直接由AI判案
現實世界的大家能夠接受嗎?
--
https://pbs.twimg.com/media/GjDLDsOWYAEd5N7.jpg

--
這老問題了 你在問的其實就是 skynet
請參考PSYCHO-PASS
其實還是由人腦判斷
當權者會放棄審判權交給AI 想想 再想想
誰要為AI的判斷負責
司法是個好工具,當然要握在手中
如果AI由當權者掌控就沒問題了阿
表面上民主AI 實際還是由執政者掌握
AI的信服力不夠啊 如果要靠掌權者授權撐腰又會被批評是
上位者的工具
聽起來跟現在沒啥區別
想太多,最難處理的永遠不是事,而是人;法律判決就
是處理人的問題
那就要看那AI有多強了 只是這類文章講的AI其實都是skynet
我在不少反烏托邦作品裡看過類似的情節
至少ai不會雙標
AI判人死刑 然後告訴犯人這是數據的結果 你覺得犯
人會覺得這個AI完全公正嗎?
billy791122: 至少ai不會雙標 <--- 嗯 這我覺得就是你對
LLM可能有比較多的假設了
骰子也不會雙標,還是我們直接1D20
即便是最一般的 classifier 也就是結果只有 是 or 不是
沒辦法雙標的判決其實很危險喔 因為法律還是有量刑問題
AI要公正那背後就不能有人 背後不能有人 那AI的背
後是什麼?一堆數據和計算嗎?那為什麼用數據和計
算可以判斷一個人有多好有多壞?
的那種,除非你完全沒有版本更新,不然一樣可能會有你
看起來像雙標的判定
目前的AI真的不會雙標嗎 更何況它們還不是真正的AI吧
反之 如果被害者覺得AI判輕 然後AI告訴被害者 基於
犯人的精神狀況或某些原因 依照過去的數據 應該從
輕量刑 那被害者會覺得AI公正嗎?
就算AI完全公正 在人看來卻不一定公正 公正這概念
本來就是人定的 AI再怎麼公平都沒辦法讓所有人覺得
公正
AI這種到現在還在研究它到底會宮啥小的 有人敢靠它嗎
要到這篇的程度,就是必須要到「人類已經完全相信這個系
隨便說出甚麼幹話都可能
ChatGPT律師 vs Grok檢察官
統的公正性、不會去質疑他任何結果」
就好比文章中的西比拉這系統,他說是什麼就是什麼
當然以台灣現在來說 用AI應該比靠法官來的可信
你沒有任何抗辯的餘地
因為台灣司法沒啥可信度
AI書記官搞不好有機會
(′・ω・`) 說得好像人類法官就很公正似的…
現階段也沒人能理解法官到底會說出甚麼瘋話
要輔助就是要輔助業務量最多最雜的啊
你住哪裡就會覺得當地法官沒啥可信度啦
你確定系統不會被人為操縱嗎
判案這種高級權力怎麼可以給ai做
不可能所有人都認同法律判決的 久而久之就會產生不信任
如果突然某次ai升版 判決改變怎麼辦
現在的世界還是只能讓人類管理人類
QED有一集劇情就是在演這個
而且以前在大家覺得這不公平的時候 會要求修改法律
那如果換成AI來審判 那我們能不能有說AI判的有問
題 應該修改法律的情況發生?如果有 那這AI就不夠
公平 如果沒有 那AI就只是不能與時俱進的計算機
@chocoball 使用這種AI判官系統的基本就是所有人都不可以
因為管理要究責,ai出包你沒辦法究責
質疑系統判定結果啊 不然就沒辦法用了
台灣不是有無上大法官嗎 有問題就交給大法官就好
問題來了:如果系統結果你不能抗辯 這系統你想用嗎?
只要有人類的6成滿意度就夠了 月費夠便宜就OK
便宜治百病
然後有錢人可以課金增加勝率 很公平
6成滿意度 那如果有6成覺得另外4成該死 那是不是那
4成就該死
不可能,因為這樣掌權者就無法操弄司法了
美國不是才有關稅用AI幫算的
你們就繼續支持這種民智未開的東西==
不過這樣的確看出來 有一點不可能 因為律師比較高貴
又不是甚麼底層 怎麼可能取代
律師跟AI工具一點都不衝突就是了
如果過半數人同意就能定奪一個人是死是活 那這情況
叫多數暴力 而且還不能排除集體失智的情況
馬上出現示範 質疑掌權者操弄司法的了
阿如果掌權者選擇用AI 你是不是一樣會懷疑
或者可以想像一個稍微更接近的:什麼情況下,大家會同意
由同一個系統來決定你有沒有罪 而且你沒得解釋的?
因為課本也會印錯,所以我決定100%相信AI給的知識
我認真覺得還滿難的就是了
短時間不會,現在的AI沒有自我的判斷基準
你要一個有「自我判斷基準」的AI也不難啊
只是那基準不見得是你喜歡的而以
問題是法律本來就是人定的規則
現在的問題就是你說的這個基準可以被忽悠過去
基準甚至可以明確地跟你說:就是算出來的數值超過某門檻
也就是說 在法律上 AI所基於的原則是人定的
甚至連怎麼算出這數值 都可以公開在你眼前 讓你驗證
法律可以被計算出來其實是件很恐怖的事
老話一句「Ai審判眾人,誰來審判Ai?」
現在的AI沒有自己的判斷能力
聰明的就會想辦法違法到極限邊緣
一個AI說要暫時犧牲集體利益 否則未來會過得很慘
那人民是會暴動的
然後就會發現殺1~2個人還真的不會被判死
人民因此會暴動那就是AI不能取代法官啊
你們要知道現在AI最大的功能就是推卸責任
圖是AI生的,是抄襲也別來找我
你看心靈判官裡面 就算一大堆人數值超標,一般民眾是會
覺得「矮額 他們有問題」
另一個問題就是 ShiinaKizuki 提到的,這AI能改版嗎?
能改版的話,如果做出的決定跟以前不一樣 會不會又有人
覺得這AI標準有問題了
我們來做個假設 如果在一戰過後由AI來管理威瑪共和
然後AI算出還款的政策 要求暫時加重人民的納稅 那
當時覺得我們沒有輸的德國人是會乖乖繳稅還是選一
個小鬍子把AI幹飛
就算不會改版也是會被懷疑啊 這判決是不是掛名AI其實是
上位者搞的
然後國與國的衝突要怎麼算?一個AI跳出來說某國錯
有罪 那被判有罪的那國會乖乖聽話嗎?
@aaronhkg 你講的那個比較是第一步的信任問題
想太多 法治的終點還是人治
國與國衝突這個是強制力的問題 倒不是AI或人的問題了
國與國之間有國際法 你讓AI根據國際法來仲裁看看
沒人會聽的
我認為可行而且很快,AI的邏輯推理是真的夠好,會擔心過
程是否公正的話大可以要求它一一提出合理的理由來說明,
只是AI目前還是容易假造資料,要限定它的資料必須完全來
自於固定範圍的證據、餵給它限定的法律條文和判例
你把國家的單位換成都市 再換成家庭 最後換成當事
者 結果也是一樣 在那當下的人不一定會信服這個AI
的判準
首先 合理的說明是什麼 有精神病是不是合理的說明
現在還不行
就你覺得那理由合理我不一定覺得合理
那些作品的假設都是 機器人三原則能正常運行...
最終的解釋權還是在於人 得要有人來說AI給的理由很
是啊我的意思就是人性在第一步就會起疑了 哪有差
合理 所以該這樣做
很好啊,你看看現在那些法官有公正嗎?
你覺得現在的法官不公正 那AI也不會公正
哈 所以我才說很多人心中想的就是skynet 而不是現代AI
因為你覺得法官不公正代表你覺得有更公正的判決
就是一個「存在小說中、大家都覺得不可質疑的AI」
那就算換成AI來判 並且判出你覺得更公正的結果 那
還是會有反方的人覺得那不公正 至少原先給出判決的
法官和接受這判決的人會覺得不公正
目前AI解釋法條和引用法條似乎問題不少,我的話不可能相
信AI吐出來的結果(因此,律師還是有得生存)
你在未來也絕對會成為那個覺得AI的判決不公正地那
方
Ai連很客觀的答案都常常出錯,你說呢?
判決是要追求公正沒錯 但判決的目的不只有給出公正
的結果
它還安撫某些人的情緒和滿足某些道德觀 而那些東西
不管怎麼搞都會有人跳腳
AI判決要成立就是你不能因為情緒而不滿 還要拋棄所
有道德觀 完全服從AI給出的規則和判罰 就算你覺得
那不合乎道德
就現在來說 要讓大家接受某些特殊條件可以減刑都很
難了 何況是完全遵守AI給出的規則
我們再來想一下一個有趣的假設 如果現在AI強大到能
給出公平的判決 且某位醫生可能被判無罪或有罪 那
在判下無罪或有罪時 大家可能都接受這個AI的判斷嗎
?
我來想一下會有什麼結果 被告說謊 欺騙AI 或 檢調
給出假的證據 栽贓好人
@ShiinaKizuki 你那個問題可能要定義一下什麼是"公平"
不然我覺得 「大家都接受」是"公平"這概念的必要條件XD
答案就是沒辦法
因為公平的定義每個人都不同
或者可能寬鬆一點「變成大部人人都能接受」
如果說有AI判案就Gta那個PC次世代版本就是了 一堆開過的不
給玩
不過這也不是AI的問題就是了 即便是人類法官裁判還是會
那少部分人的公平就不是公平嗎?
遇到很多人不滿意的情況
某些人別再期待有個救世主或ai能給你公正無私的方向指引
了 你們只會被騙而已
不收賄不恐龍法官 & 不會偏坦辯護人不包疪的律師..誰要
而且如果只是數人頭 那還用得著AI?
我來都行
犯罪係數要上線了嗎
何況法律本來就會給出大部分的人無法接受的結果
現在ai真的超強 deepsearch
有犯罪係數這種東西說不定真能AI來判
如果犯罪係數完全沒有作假或操作的可能性的話
結果心靈判官的人每個都在這上面動手腳 笑死
除非AI可以扛責任不然別想了 即時機器的決策比人準
但是不準的時候還是必須要有人背鍋的
律師使用AI已經有案例了,不過還在輔助階段而已
還可以顯示思考過程給你看 覺得有問題就加限制讓他重
想
就算AI能給出公平的判決 只要被告和受害者是人 那
就肯定會有人覺得判決不公平 他們只是少了一個懷疑
的人而已
不可能 司法 呵呵
辯護還有可能 判案不可能 判決就是要經由人來決定
才有意義 不然人類就真的要完蛋了
用AI來辯護倒是很有可能
我想說打個比方現在人都用AI學圍棋,往往Ai下的棋人類都
看不懂,反之Ai做出一個人類看不懂的判決,那還是相信Ai
的判決嗎
有欸 想到一塊了
誰不想要一個比人還公正的AI來為自己辯護
這篇討論的不就是一個絕對公正唯一真神的AI嗎? 那怎
麼可能會有問題呢? 如果判決材料有問題,那就連司法
單位都全部用AI,那就絕對不會有問題了。如果誰對判
決有疑問那就絕對是提出問題的人有問題。
但我覺得總有一天人類能拋掉所有的道德觀 並且不管
這法律是否合理 完全相信AI
可是你受害者和被告不可能是AI吧 他們都是可以影響
判決的人
而且如果大部分的人覺得有問題怎麼辦?
這時候難道要說大部分的人都錯了?法律就是這麼寫
所以這判決合理 這種說詞能讓大部分的人接受?
如果司法單位是絕對公正的真神 那未來一定會做出違
背大部分人意願的判決 因為他們只依照法律辦事 法
律只能被大部分的人修改 不可能永遠是大部分人的共
識
現在法律有些就已經很反直覺了 之後給AI判決一定會更多
反直覺的判決結果 但你能說他錯嗎? 可是依然會有些用直
決判斷的民眾覺得判決有問題吧
要讓AI成為法官 那最好它是真神 有能力把所有對自
己的判決有意見的人都除掉
不然這些人不爽就會要求改法律 最後遲早會發現法律
是由前人定的 而這些前人不是AI 只是上個時代的大
部分的人
可以做參考,但不能成為主要
那現在的問題就變成人能不能接受AI定的法律
ai的資料來源就是現實中的判例,你越不喜歡現實中的判
例,他越會這樣判,而你到時候抗議ai的做法,他也不可
能會改除非重新訓練,所以到最後還是人的問題
如果大家都能接受 那最後的問題就剩下大家能不能接
受把所有被告和受害者都換成AI
因為這些被告和受害者與其關係人本身就是導致不公
正的泉源 是最該排除的對象
有個故事是一個正常人進到大家都是白癡的世界 最後
他覺得自己才是白癡 如果有全知全能去完的AI 那他
大概也會被我們搞到以為自己才是白癡
*去完 全善
給AI判還是得有人扛責, 你總得有人扛責任
不過AI輔助判決倒是很有可能
法官需要某種可以證明自己很公平的東西
AI正好適合 以後有暴民要搞他 就說我是依AI來判
有可能啊演算法得出最優解,未來可能大小事都用ai
法官可以請一年病假ai不行,光這點ai就輸了
司法是個好工具
只要"AI幻覺"這問題沒確實解決 那永遠都不可能給AI判
不要雙標就好,別三家AI判的結果有三種
沒有不行
沒有自然人存在的要怎樣辯 但律師參照AI提策略是可能的
六法全書唯一死刑的時代終於要來了?
喂進去的恐龍法官判例 這樣能期待什麼
vedal:
人類太自大了不會下放審判人的權力給ai …
至少我們這代不會,從小浸在ai 長大的小孩就有可能
有件事比較確定 AI無法無中生有創造 只能用人類數據拚
圖出一個結果 那就說明沒有真正的意識
所以關於人性之類的事AI可能沒辦法合理判斷 但一些無關
緊要的事 可能可以或是超級小罪
當代AI做到加速思考 無法取代思考 完全還是比較科幻一些
連相較簡單的翻譯工作 幻覺頻度仍很高 需要人為校稿了
但對於不擅長思考、答辯的人 AI 會是個很好的法扶工具
Shiina講得那些 把AI兩字換成人類都還是成立啊
懂了AI的運作規則之後 你就會發現AI很會一本正經胡說
八道
對有錢有權的人來說 司法太好操控了 不會放權給AI
這就假議題,看現在ai幻想從來沒少過
還一堆人把ai講的錯誤資訊拿來質疑別人
光是一個雲端發票抽獎權重就搞不定了 要判你生死的你覺
得有人會信嗎?人就是只相信人而已
但如果大家都用ai寫稿 最後人就只是橡皮圖章了 呵呵
沒意義 你怎麼知道不會被做手腳
很多事情AI都能做了,但至少一二十年內不會給AI
就沒有什麼絕對公平的判決 只要一個判決有輸贏敗訴的那邊
就很可能覺得不公平,每個民眾心裡的標準也不一樣
畢竟交給人負責才能夠影響、操作、收買、甚至甩鍋
ai有時連整理漫畫資訊都會錯的,敢讓ai整理能遠比創作
物還離奇的事實?創作會有基本邏輯,事實很多怪事
19
[問卦] 沒人發現法律人是社會中最沒用的職業嗎?法律 講白話一點就是統治者的思想 統治者制定各種規則來約束底下的人 而法律人 只是把統治者的思想背下來而已18
[問卦] 無論科技多進步.永遠不會被ai和機器取代無論科技多進步.永遠不會被ai和機器人取代的工作.有哪些? 永遠需要真人來做的工作. 我只能想到兩個:性交易.真人運動競技. 沒了.有別的嗎? 工地搬磚也能用機器人.端盤子也能.醫生開藥動手術也能.法官判案也能.4
[討論] AI 能判案?GPT-01 發現矛盾DP直接硬判大家好,我是 小梅放送局的製作人 KAZUMA9108。 這次我做了一個 AI 推理實驗,結果比想像中更有趣。 如果 AI 來判案,它真的能像法官一樣做出判決嗎? 還是說,它的推理方式會讓我們更不信任? 這次我讓 GPT-01 和 DeepSeek R1 來處理同一個推理案件,結果兩者的判決方式竟然完7
[問卦] 到最後 為何AI要幫人類工作?乳題啦 AI發展的越來越快速 全面取代人類工作的日子好像真的有機會到來 到時人類只需要將心靈層面做提升 去從事自己喜愛熱衷的事情5
Re: [新聞] AI即將取代人類?這10種工作「岌岌可危」法官才最應該被AI取代吧!毫無專業可言全憑法官個人自由心證判案。 而AI則完全不會受個人價值觀、情緒、偏見、早上有沒有便秘等因素影響,從判例法條大 數據中給出應有判決,或許可替換掉三個承審法官中其中一位! --3
Re: [問卦] 法官要用AI替代了嗎?讓雙方律師打字辯護(以後可能直接對鏡頭講話就行) 中間一個大螢幕給大家看 旁邊的數名陪審旁觀後提出建議跟進行最後把關 AI判決出來之後可以改動上下30% 或是陪審團一致認為改動需要超過規定的數字就能上訴1
[問卦] 人臉辨識+AI,解決博愛座問題?!如題 交給AI判案,應該公平又準確了吧 還可以連線病歷資料庫 : 這位阿公是重度骨質疏鬆症患者 應坐座位 那個年輕人印堂發黑etc. 人臉辨識+AI,有沒有解決博愛座問題?2
[問卦] AI新世界未來AI全面接管人類生活 有AI警察AI法官AI律師 當然人也會用AI犯罪 再用AI受審 最後再讓AI機器人分身去坐牢1
Re: [討論] 律師刻意幫罪犯辯護算是伸張正義嗎?這串討論到了AI法官判案,不如我們聊聊怎麼樣的AI才能當個好法官吧? 1.法庭上原告被告都在說謊,AI至少要常理上能分辨 法庭上檢警說謊不一定是想要誣賴被告犯罪,有可能是追查過程有違法監聽搜索,可能是 不想透漏真實的通報線民...所以瞎掰辦案過程 法庭上什麼情況都有,AI要想辦法在努力誤導AI的雙方說詞中構築最貼近現實的真相- 當未來AI有智慧跟真的犯下罪行的時候 AI 會找律師辯護說是人類的創造它的 去找人類算帳 那時候我們要說什麼 人類創造人工智慧是事實啊