PTT評價

Re: [閒聊] 繪師是怕畫不過AI還是怕AI會創作?

看板C_Chat標題Re: [閒聊] 繪師是怕畫不過AI還是怕AI會創作?作者
ken52011219
(呱)
時間推噓12 推:12 噓:0 →:50

※ 引述《loveSETSUNA (味噌豆腐)》之銘言:
: AI繪圖不是一段時間了嗎?

怒刪,剛好碩班是研究AI領域,以我的角度來看

其實人工智慧這一塊的發展跟人類特徵學息息相關。人類從自我的習性套用到機器上,透過流程特徵化後編制pipeline讓機器模仿人類的習性。

先說結論,Machine Learning(ML)不可能只靠「單一」一張畫師的畫就可以訓練成一個有效的模型;相反地它需要透過大量的數據去臨摹某一種畫風。

故與其說AI抄襲某人的畫作,不如說它臨摹某派系的畫風。你大部分無法在機器學習上看到單一畫家的風格。因為牽扯到overfitting的問題

也因此決定AI抄襲這一塊其實可以Focus在該模型輸入端對於某畫師的畫作資料佔所有輸入量的幾成。

因為這會間接導致該模型的類神經參數會對佔多數的輸入畫作特徵擁有極高的權重。如同人類對于抄襲比例佔多寡才算抄襲

至於一兩張就想要說抄襲的…我認為這站我的觀點來看,只能說不太可能。因為一兩張
影像的特徵就算喂入類神經網路中頂多Train 出垃圾而已。

--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 49.216.190.119 (臺灣)
PTT 網址
※ 編輯: ken52011219 (49.216.190.119 臺灣), 08/30/2022 12:23:33

leo051908/30 12:24以後 GAN 的輸入就是性癖向量

hyakkiyagyo08/30 12:24好的 結論就是低端文組被害妄想症

Mchord08/30 12:27https://github.com/tamarott/SinGAN 2019ICCV參考一下

有趣的reference, 但我認為它比較像是基於某畫面上增加某些物件的model 它無法從無到有create一幅畫出來,而比較像將物件segement到該畫上,有點像目前NFT 但又不太相同

metallolly08/30 12:29推科普

Koyomiiii08/30 12:31所以比較有可能的是以後繪師不上傳圖到p站全部丟付費的

※ 編輯: ken52011219 (49.216.190.119 臺灣), 08/30/2022 12:33:31

Koyomiiii08/30 12:31可能性比較高嗎?

Koyomiiii08/30 12:31留圖庫等於風險之類的

metallolly08/30 12:33有些圖庫會特別註明:商用要特別花錢買.就像你字型要用

metallolly08/30 12:33在包裝上也要特別買過一樣,類似的想法吧

riceworm52008/30 12:34所以要畫風相似,除非是ai 喂圖大量的只喂同一位畫

riceworm52008/30 12:34師的圖。不然根本不會有畫風相似的問題。或是在餵圖

riceworm52008/30 12:34的資料有繪師名字,然後指名要某繪師的畫風,才有可

riceworm52008/30 12:34能。

lay1052108/30 12:35畫圖有辦法評分或算loss嗎==

ken5201121908/30 12:35有哦算個相關性(correlation coefficient)應該不難

Bugquan08/30 12:36其實最終跟人一樣,除非你硬要模仿誰的畫風,不然一開始

Bugquan08/30 12:36就參考一堆人的畫,最後畫出四不像

lay1052108/30 12:38像是算主題的關聯度嗎?

y246810121608/30 12:42推這篇,真的幾張出來的大部分都是垃圾

miyazakisun208/30 12:43AI 判定抄襲更容易捏 看你權重多少 我覺得繪師應

miyazakisun208/30 12:43該要樂見其成 超過幾趴就告 沒啥模糊空間

Mchord08/30 12:45從label map能生出畫才是現在最接近實用的方向

ken5201121908/30 12:47算某特定特徵的AI與人類畫的相關性 但我猜應該都會蠻

ken5201121908/30 12:47低的

ken5201121908/30 12:47除非該特徵是這派畫風的共同特徵

y12019627608/30 13:04回米蟲:從報導看來,訓練的時候應該是公司事先從資

y12019627608/30 13:04料庫餵各式各樣的圖,而不是大量餵同一種圖。模型建

y12019627608/30 13:04立好後,只要有人上傳某畫師的圖片,他就能根據學過

y12019627608/30 13:04的產出類似的畫風。

這技術叫作transfer learning(遷徙學習),它是based on 某些已經fine-tune過參數 的模型再接手繼續training。打個比方對於ML來說辨認汽車的方式跟辨認火車的方式其實 都是同一個特徵。也因此你可以拿火車的模型去接續train 汽車 但問題是,難道因此汽車的數據只要一兩張就可以轉成汽車的模型嗎?不,它仍需要大量 的汽車資料。只是優點是它節省了由0到60的時間 也因此這絕對不是一兩張就能完成的事情

※ 編輯: ken52011219 (49.216.190.119 臺灣), 08/30/2022 13:09:44 ※ 編輯: ken52011219 (49.216.190.119 臺灣), 08/30/2022 13:10:44

b2305817908/30 13:16哇幹拉起來摔

b2305817908/30 13:16回錯文抱歉

ken5201121908/30 13:17笑死

Mchord08/30 13:18繪師在反的哪個beta版只要最低30張就能運作了

ken5201121908/30 13:20以30張來說 單幾張畫佔輸入比應該算蠻高的

Mchord08/30 13:20你拿train過所有廠牌汽車的模型tune在toyota上本來就沒有

Mchord08/30 13:20很難

ken5201121908/30 13:21我認為抄襲定義對於AI來說真的算好量化的

Mchord08/30 13:22compile好的model除非他願意不然你很難拿到中間feature

ken5201121908/30 13:24ML中間的類神經變數就算拿到了就算拿給我看我這種學A

ken5201121908/30 13:24I的也看不懂啦… 裡面就是黑盒子

Mchord08/30 13:25就算拿到了你也很難界定他用了什麼圖訓練,inverse bp可

Mchord08/30 13:25以生成一張有maximum reaponse的雜訊圖,但它可能沒用這

Mchord08/30 13:25雜訊圖來訓練

ken5201121908/30 13:27學品牌不難,因為各車廠有各車廠整體的風格。但要學

ken5201121908/30 13:27習到各品項的車款了話就真的需要一定的數量資料。畫

ken5201121908/30 13:27作同理

Mchord08/30 13:28現在學AI的不用學ML嗎,我還以為CV NLP RL什麼的都要全包

ken5201121908/30 13:29了解程度不同吧 你提的每個要學都可以學到很精 除非

ken5201121908/30 13:29念博班不然碩班兩年太短了

ken5201121908/30 13:30了解原理就好 工作會用到再拿起來複習

hinanaitenco08/30 13:41就learning efficiency問題啊 現在有work在研究

hinanaitenco08/30 13:41未來幾張拿來fine-tune應該就夠了

hinanaitenco08/30 13:42現在data distillation就能做到僅mnist 就acc 80啪

YoreX040308/30 14:04其實我覺得用pretrain 好的model 去學特定畫師的畫風還

YoreX040308/30 14:04是有爭議,很多抄襲也是抄襲者有一定基礎,再從被抄襲

YoreX040308/30 14:04的作品改細節

YoreX040308/30 14:11如果繪師明訂禁止AI訓練使用那就是一張都不行,怎麼抓

YoreX040308/30 14:11是另一回事

newwu08/30 14:39他可以把風格降維 用encode之後的不同風格建立生成模型 輸

newwu08/30 14:39入時再把風格降維當模型輸入

newwu08/30 14:39這樣就可以假裝一兩張就學會風格了

newwu08/30 14:40事實上只是早就學會的風格,只是辨識後用該風格畫出來