PTT評價

[閒聊] 推特:防止AI學習繪師作品的方法

看板C_Chat標題[閒聊] 推特:防止AI學習繪師作品的方法作者
gundamx7812
(亞洲空幹王)
時間推噓72 推:74 噓:2 →:92

就是在作品圖中加入人類肉眼難以辨識的雜訊
https://i.imgur.com/PBBbNRA.jpg


https://twitter.com/Akihitweet/status/1577827240330809344?t=FOSz6UZh2oyMsStXJ8LEZg&s=19

不過回覆裡也有人說有技術可以克服雜訊問題就是了

延伸閱讀:如何欺騙AI
https://youtu.be/YXy6oX1iNoA

--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 182.239.85.157 (香港)
PTT 網址

diabolica10/07 15:18如何欺騙人類

D2Diyus10/07 15:18這真的比較是在欺負盜圖仔肉眼w

b220276110/07 15:19就只不過是在抓圖時候多一道刪除雜訊的步驟

Nuey10/07 15:19就多一道工序而已== 哪有差

Nuey10/07 15:19你不如整張圖都打上馬賽克還比較有用

holiybo10/07 15:19這是不是跟防b站盜片是同一個原理

aqswde1234910/07 15:20這跟加浮水印一樣沒屁用吧,又不是不能去除掉

hami83190410/07 15:20在色圖加入雜訊→古典制約導致性奮與雜訊連結→未來

hami83190410/07 15:20光看雜訊就可以射

k96060810/07 15:20這就上鎖的概念 總會有拆鎖專家

Bugquan10/07 15:21人眼不能辨別,但是AI勒?

k96060810/07 15:21但是上鎖可以防止很多低等ai也是事實

mikeneko10/07 15:21建議加上防支咒

joseph9323410/07 15:21adversarial perturbation

k96060810/07 15:22人眼不能辨識=我可以正常尻 ai會辨識=ai會得到跟我們不一

k96060810/07 15:22樣的資訊 這樣有沒有看懂

pikachu242110/07 15:22實際上根本不同類型的AI 不會有什麼效果

minoru0410/07 15:23跟以前看到鎖碼台雜訊畫面就勃起一樣

oldriver10/07 15:23AI看得懂=AI可以把它挑出來去掉 多一道工而已

phoenix28610/07 15:24AI在讀樣本時不會做濾波嗎?

forb982301810/07 15:24單張圖識別物件才有用

sameber52010/07 15:25只有一招 那就是拒絕交流 但肯定不值得

a4316491010/07 15:25有人覺得只有他看得懂欸 笑死

geniuseric10/07 15:25偷放維尼和綠色母狗呢

lay1052110/07 15:25可以做到原圖相似度97%以上 但肉眼看不出來

moritsune10/07 15:25早在讓AI畫圖前這類去雜訊的研究就已經做幾十年了

LLSGG10/07 15:26這史前論文我覺得已經解決了啦

haha9810/07 15:27以前gan紅的時候gradient adversarial 就一堆了

haha9810/07 15:27已知用火

csvt3274510/07 15:27https://youtu.be/YjfzJdimPDA?t=333

vios1000910/07 15:27你各位知道為什麼中國轉貼的圖片很多品質差又有雜訊了

vios1000910/07 15:27吧,那是為了防盜啦

k094258810/07 15:27這只能防到很低階的model吧

sameber52010/07 15:27以前怎麼防駭客 直接物理分隔系統不連網 同一招

kinghtt10/07 15:27達文西領先業界500年...

franktpmvu10/07 15:28這個是辨識用的模型 跟生成用的模型罩門不一樣 辨識

franktpmvu10/07 15:28模型可能因為加一點雜訊就認錯物體 但加了雜訊的熊貓

franktpmvu10/07 15:28 在生成模型一樣會產生加了雜訊的熊貓

qxpbyd10/07 15:28https://i.imgur.com/VyHLRzb.jpg 抱歉 隨便找就一篇還原

smart0eddie10/07 15:28這種東西換個model就沒屁用了

k96060810/07 15:28沒錯 最強的鎖就是連門都沒有

qxpbyd10/07 15:28https://diffpure.github.io/

smart0eddie10/07 15:28生成有雜訊的熊貓又如何 人眼又看不到

k96060810/07 15:29其實你各位每次輸入的驗證碼就是在幫ai識別啦

csvt3274510/07 15:29生成模型上不知道有沒有用就是XD

qxpbyd10/07 15:29而且那是影響分類問題 不知道對生成模型是有什麼影響

swear0110/07 15:29這個沒用啦 李弘毅前幾天在講transfer learning的時候才

swear0110/07 15:29講過這個,那裡的研究原因是訓練出來的AI模型要防盜,結

swear0110/07 15:29論卻是在肉眼看不出來的雜訊下,AI因為減少了Overfittin

swear0110/07 15:29g反而效果更好

k96060810/07 15:29這我好像十幾年前還在抓免空就聽過了

Annulene10/07 15:29看著蠻搞笑的 已經不知道安怎了..

haha9810/07 15:29你攻擊gan可能還有點機會 但是現在紅的是diffusion

asd856974110/07 15:30SD本身就是建立在去噪的模型,這種防禦方式會有用嗎

smart0eddie10/07 15:30diffusion 就是在去雜訊的==

qxpbyd10/07 15:30GAN有分類器 擴散模型沒有

IntelG456010/07 15:31Difussion好像就是用加雜訊去雜訊的方式訓練的,懷疑

IntelG456010/07 15:31這個方法有效性

haha9810/07 15:33建議可以先去看幾門開放式課程再來

milk83012210/07 15:34繪師在這方面那比得過真正的工程師 耍小聰明哪有用

e44658228410/07 15:34用AI的方法對抗AI? 腦洞真大,多一道工而已,連遊戲

e44658228410/07 15:34DRM 都擋不住駭客,你才圖片是要擋什麼

Mchord10/07 15:34這方法完全無效,不用幻想了

milk83012210/07 15:34繪圖軟體也是程式來的

sameber52010/07 15:34不要自以為能在技術上取巧 技術一年可能好幾次大改

Mchord10/07 15:35你如果加了雜訊圖好看那train下去一樣會生出好看的東西

tim91028210/07 15:36那就只好生出產生雜訊的AI了

sameber52010/07 15:36這麼想防 那就是從現在開始都別放圖

mapulcatt10/07 15:36工程師:已知用火

shadowblade10/07 15:36影像處理早就能搞定這種東西了

chuegou10/07 15:36現在主流網站用可見雜訊驗證碼都防不住機器人了 影像辨

chuegou10/07 15:36識很強大捏

Bugquan10/07 15:36就算不改模型,也只是多一道工,而且除非全加了,不然總

Bugquan10/07 15:36有沒加工的

Mchord10/07 15:36加到整張看不清楚連粉絲都不想看的話,他們也懶得盜你圖

miyazakisun210/07 15:37那個雜訊還原 已經....

k96060810/07 15:37對 最終就會走向大家都不放圖的境界

Bugquan10/07 15:37不放圖先餓死繪師而已

mn43510/07 15:38Ai學老圖就夠本了吧…

vios1000910/07 15:38這個AI本身就是以降噪為基底去練習的,這就像是在國文

vios1000910/07 15:38考卷上丟一堆幼稚園數學題目,AI看了都會笑

qxpbyd10/07 15:38訓練過程就會加噪了 等於是繪師先幫忙放了一點noise

alen030310/07 15:38這已經好幾年前的問題了 早就被解決了

Annulene10/07 15:38看著跟當時抖音的情況有點像? 結果應該也差不多 使用

Annulene10/07 15:38者越來越多的話

mn43510/07 15:39最後ai學ai誰要學繪師

jasonchangki10/07 15:39真正厲害早就去當工程師了哪會繪師

sameber52010/07 15:39但繪師的知名度和商業來源要先從分享開始 所以別想了

LiangNight10/07 15:39越來越好奇未來的發展了

sameber52010/07 15:40工業革命時的手工業者最後還不是得進工廠工作

twosheep060310/07 15:42這套是騙分類器用的 aka tag污染

twosheep060310/07 15:42對於diffusion來說可以說是毫無作用w

ringtweety10/07 15:43AI現在生的圖的等級 其實已經告訴你這雜訊效果不大了

undeadmask10/07 15:45最後就會變成繪師都懶得畫圖 ACG二創市場萎縮 宅宅只

undeadmask10/07 15:45能看AI圖尻尻 大家互相傷害罷了

qxpbyd10/07 15:46https://i.imgur.com/qMV2uoH.jpg Cold Diffusion那一篇

qxpbyd10/07 15:46試過加不同種的noise了

zeolas10/07 15:47看以後會不會變成軍備競賽囉,我反制你的反制之類的

TentoEtsu10/07 15:48好像還滿多人樂見這種互相傷害 笑死 以後大家都沒得看

a4316491010/07 15:49活不到那個以後啦 都沒得看是要發展成怎樣==

sameber52010/07 15:49我倒覺得以後AI會變成繪師工作用IDE的一部份吧

sameber52010/07 15:50說到底還不是要人下指令 修圖也還是繪師修的好

Irenicus10/07 15:51不放圖就不能當社群偶像了 太苦了

Irenicus10/07 15:52是說有時間想這些有的沒的 不如趕快去研究AI可以怎樣讓

Irenicus10/07 15:52自己的產圖更多更好

Lhmstu10/07 15:52這方法太低階了吧...

guogu10/07 15:52怎麼可能沒得看 如果AI圖夠好看夠有趣 大家看AI圖一樣享樂

guogu10/07 15:52如果AI圖千篇一律 沒故事性 那樣人類繪師就會繼續主流

nisioisin10/07 15:53這張圖是數位邏輯還是影像辨識課本跑出來的吧XD

nisioisin10/07 15:53這種程度應該很好分離出來

Siika10/07 15:53真的要防就是完全斷網啦

guogu10/07 15:56真的要防就是畫完送碎紙機 不上傳不出版就不可能被學

GreenComet10/07 15:56都有對抗式訓練了 那比白噪點更能攻擊網路

orange031910/07 15:56不就和驗證碼一樣,到後來正常人根本不知道驗證碼那團

orange031910/07 15:56歪七扭八文字是啥,但是電腦卻能辨識

asiaking556610/07 15:57只能讓自己推的愛心數變少而已

purue10/07 15:57去防這個 不如公開模仿資訊讓繪師抽成

DJYOSHITAKA10/07 15:57這超多人在做了吧

mom21310/07 15:58這老方法了 一堆外行仔zzz

sinnerck110/07 16:00騙分類器的老方法是有什麼用

mapulcatt10/07 16:01畫師都死去大概也沒差 到後來用照片訓練 AI圖互相訓練

aaaaooo10/07 16:01這就第N次工業革命阿 先學會用法的人可以把其他人淘汰掉

mapulcatt10/07 16:02然後再由受眾的反應去決定訓練的反饋就好了

mapulcatt10/07 16:02就像當時阿法狗一樣 進化到後來 人類的棋譜反而是累贅

ringtweety10/07 16:05當AI已經能呈現出水準很高的圖 而不是什麼都畫成邪神

guogu10/07 16:05繪師本來就外行人啊 人家是畫圖的不是搞ai的是要多內行

zeus766810/07 16:05文組想到的方法沒什麼參考意義

Annulene10/07 16:06跟“人類”借圖還要知會一下 這個根本厲害 還難追溯源頭

ringtweety10/07 16:07表示它的理解能力已經不是這種雜訊就可以斷的了

Aurestor10/07 16:08這招是在瞧不起AI嗎

misclicked10/07 16:10我的論文就是做這個的

akiue10/07 16:17AI:哈欠。

akiue10/07 16:18想到網頁有時會出現,懷疑你是機器人。

aaronpwyu10/07 16:27就跟放符文防中國一樣啊 插入訊息防盜用

clothg3456910/07 16:29這一看就外行人的言論= =

clothg3456910/07 16:30晚點再回一篇好了 這篇只證明了懂AI真的很重要

clothg3456910/07 16:33之後繪師是不是應該要把李宏毅的課程列為必修阿

dsa88888810/07 16:34不要上傳圖片讓它沒得吃

dsa88888810/07 16:34雖然現在的圖庫應該夠了

jokerjuju10/07 16:35這個大概還是停留在剪貼時代的產物

johnny310/07 16:39一句話 來不及了啦

Raptors110/07 16:46小干擾就死掉的AI不會被端出來啦

Raptors110/07 16:46以為工程師的頭髮白掉的?

junren018310/07 16:49這麼怕就不要貼圖出來就好了==

Darnatos10/07 17:04這沒用...

xxxyangxxx10/07 17:13前面加個濾波器就破解了

chairfong10/07 17:18人類對ai做的事 就像以前大人為小孩裝了第四台鎖碼器

start92810/07 17:24其實加雜訊進去 會讓這個程式更有robust 本來就有這個

start92810/07 17:24技術了 這篇是在反串嗎XD

Kururu807910/07 17:24笑死,真的是已知用火欸

syldsk10/07 17:30這個本來就有在研發不是?

Oxyuranus10/07 17:36那就是補一個filter再餵圖而已

manu556610/07 17:44訓練都會加noise了,你這個反而是幫助他們訓練,

jacky585910/07 18:30這個不是很久了嗎

watashino10/07 18:33這串一堆不懂DL的在鬧欸==

paul5111010/07 19:05已知用火

Cactusman10/07 19:26到底為啥要防止AI學習?

bitcch10/07 19:30笑死 人工adversarial attack 更何況現在是生成模型

attacksoil10/07 20:16denoise太簡單了

nalthax10/07 21:29簽名跟花押呢

zorko10/07 21:33這串蠻歡樂的 這是生成模型啊 不是分類器 完全不一樣的領域

zorko10/07 21:34現在生成模型領域當紅的是 Diffusion Model 今年幾十篇論文

zorko10/07 21:34都在討論這個類型的

zorko10/07 21:38另外GAN一般只有訓練會用到discriminator(分類器)

Addidas10/07 22:04反覆富麗葉不就可以消掉了嗎

pionlang556610/07 22:25真的跟驗證碼一樣 我還有朋友在fb分享她怎麼寫解析

pionlang556610/07 22:26驗證碼的程式 都搞不清楚到底哪邊才是人類了

CarbonK10/08 02:37白癡嗎…SD 就是基於雜訊的訓練方式