PTT評價

Re: [閒聊] AI畫圖是不是大數據拼圖?

看板C_Chat標題Re: [閒聊] AI畫圖是不是大數據拼圖?作者
yoyololicon
(十年魔乃粉)
時間推噓42 推:43 噓:1 →:59

最近回去念書了,念的programme名字有AI,應該可以發個言ㄅ

新科技需要熱衷的族群做推廣,有推廣才有funding,我才有薪水qq

不過這些族群不一定對科技有正確的認識

這幾天看到一些不精確又容易誤導的解釋真的會中風

想說做點簡單的科普(科普很難我知道qq)

※ 引述《newwu (說不定我一生涓滴廢文)》之銘言:
: 見圖二
: 理解這個想法後
: 我們把圖像的高維空間畫成二維方便表示
: 以ACG圖為例
: 那被人類接受的ACG圖就是一個高維空間中的分佈
: 簡單理解就是一個範圍內的圖,會被視為可接受的ACG圖
: 在那個範圍外的空間包含相片 雜訊 古典藝術 支離破碎的圖
: 生成模型的目的,就是從範圍內的樣本(下圖紅點)建立一個模型
: 這個模型學習到這個範圍,而模型可以生成也只會生成在範圍內的點
: https://i.imgur.com/NfUyIAg.jpg

: 圖二

借用newwu的圖

目前大家在討論的AI,其實更精確地講,應該說是圖像的生成模型Generative Models(GM)

GM有很多種

舉凡VAE, Autoregressive Models, GAN, Normalizing Flow, Denoising Diffusion都是

而一個被科學家普遍採用的假設是

真實世界資料的複雜分布(圖二),都對應到一個潛在空間latent space

而這個空間通常較具有可讀性(interpretable),例如某個維度代表某種面向

另外方便起見,現實資料這個潛在空間的分布會是個很簡單可操作的分布

大部分論文都用常態分布Gaussian,但我相信也有人用binomial分布之類

為甚麼要這麼設計? 因為如果假設為真,可以幫助我們去分析與理解現實的資料

科學研究本來就是要幫助人類進步,怎麼會搶繪師的飯碗

而大部分模型在做的事,就是學這個兩個空間的對應關係

訓練方式也很簡單,最大化資料在這兩個空間的可能性(likelihood)

VAE的潛在分布在一個低維空間

GAN雖然理論基礎薄弱導致先天性缺陷一大堆,但也是在modeling低維的空間

Normalizing Flow和Diffusion比較特別,潛在空間的維度和原始資料一樣

Autoregressive Models直接模擬現實的分布,但不影響上述的假設



至於Diffusion Models的貢獻還有表現為甚麼這麼好,以至於瘋狂的流行起來

比之前的GAN熱潮有過而無不及,主要是因為訓練Diffusion Model和訓練VAE一樣

都是在最大化分佈的下限 maximium lower bound

然而卻沒有VAE的模糊問題,證明只要分佈設計的好

是可以同時保持VAE的好訓練特色和GAN一樣的高likelihood

也不是沒有缺點

如果把整個生成過程攤開來看,Diffusion model就是一個超~~極深的神經網路

比ResNet還深,導致生成非常耗時,加速生成過程也是一個熱門的研究方向

如果對diffusion models有興趣,想快速了解也不排斥讀論文

我推薦這篇近期的overview paper,對整個diffusion models的不同面向都有做講解

https://ar5iv.labs.arxiv.org/html/2208.11970

也可以看板上cybermeow的解說

另外這篇的結語也非常有趣

就是人在畫圖的時候,是否也是藉由不斷的去噪,提煉出一張圖的?

diffusion實際上真的模擬的人類的創作過程嗎? 值得玩味



最後回答幾個常見的QA

Q: AI畫圖都是從別人的圖找出來拼貼的。

A: 沒有這種事。

從以上以及前幾篇的講解,可以知道生成模型從頭到尾在做的

就只是機率統計而已。

給予離散的資料點,找出最能代表的連續函數,僅此而已。

因為有loss的關係,要生出完全一模一樣的圖幾乎不可能

(當然也有生出不完全相同,但人類感知上無法察覺不同的情況


Q: AI繪圖只能迎合大眾的喜好,無法有獨創性,提出新的概念。

A: 這是個無法說死的問題。

理想上,數個資料如有類似的屬性,不管是畫風、概念、構圖

在潛在空間應該會落在一個鄰近的區域(cluster)

如果我們有足夠的資料、足夠強的模型架構,能真的完全模擬現實資料的潛在分佈

那麼所謂的沒出現在訓練資料,具有獨特性的繪圖

也許只是某個能內差或外插出來的區域而已。

當然也有可能AI繪圖影響到人類繪圖的整體分佈,脫離原本的潛在空間。


Q: diffusion的訓練過程和GAN相比,會直接看到訓練過程所以較強(#1ZFbZ85b)

A: Nonsense.

diffusion強大的原因在前文已經解釋了。

GAN不可能沒用到原圖的資訊,你如果把discriminator和generator並在一起當作同一個

模型就知道了。

VAE的訓練也會直接看到原圖,效果卻一般。


Q: CNN的filter是找最常出現的pattern,所以有用到其他圖的資訊去拼貼!

A: Also nonsense。

如果今天CNN只有一層,那還有一點道理。

但一到兩層以上,這些Hidden feature所在的空間和原本資料所在的空間已經是不同的了

要說拿圖去拼貼非常牽強。


大概醬,有問題可以直接推文,還得寫今天跟老闆的會議紀錄QQ

--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 31.205.105.234 (英國)
PTT 網址

diabolica10/07 00:06不懂的還是繼續不懂

erisiss010/07 00:07人類畫圖 確實就是去噪

erisiss010/07 00:08這個原理就是人類畫圖 先打線稿 然後從線稿中追求理想

erisiss010/07 00:08塗上某個色彩 然後又抹去部份 添加細節

tym748210/07 00:09嗯嗯嗯跟我想的差不多

trywish10/07 00:10重點是圖和照片界線越來越淡,以前大家希望保持細節,現

trywish10/07 00:10在照片,反而一堆人只想要"線條"和顏色。修圖修到最後,

trywish10/07 00:10細節都不見了,不過卻被說是"美的照片"

erisiss010/07 00:12模糊的美學嘛 眼不見為淨 不然拍照也不會出遠景了

nisioisin10/07 00:12推科普

AN9410/07 00:13一堆專有名詞誰看的懂 不翻譯成人話也是枉然

inte629l10/07 00:13先推 等睡不著在看overview paper XD

DeeperOcean10/07 00:15AI技術上本來就是沒有問題的,問題一直是用法跟目的

yoyololicon10/07 00:16我會再加強解釋的功力qq

DeeperOcean10/07 00:16很多狀況根本是使用者本身希望能做到拿圖改圖的成果

pot123410/07 00:18難得看到有人認真介紹 推推

DeeperOcean10/07 00:18也就是藉由AI這個清白的工具,做些投機取巧的事

DeeperOcean10/07 00:18這才會有那麼多問題的

erisiss010/07 00:19然後還要被一些不懂瞎搞的人說都是ai的錯 禁止ai學圖

DeeperOcean10/07 00:20即使NovelAI官方,肯定也沒有想為資料庫付錢的念頭

smart0eddie10/07 00:21

lay1052110/07 00:22之前有個論文 是把成果再加上一個分類器

aa901210/07 00:222樓被打臉了 還能堅持己見

XFarter10/07 00:24@aa9012 二樓那裡被打臉了?

erisiss010/07 00:24您是不是認錯人?

XFarter10/07 00:25另外這篇文講得很好 但不懂的閱讀的人還是不懂啦...文章

XFarter10/07 00:25太長或圖片不夠多的都入不了某些版友的法眼,我猜。

smart0eddie10/07 00:25人類的去噪跟defusion 的不一樣吧

erisiss010/07 00:25手法確實不一樣 人類比較擅長加法的去噪

smart0eddie10/07 00:26有人看不懂這也不是文章太長還是沒圖的問題

erisiss010/07 00:28人類對一張圖 做的去噪就是加法

smart0eddie10/07 00:28光是那個likelihood

smart0eddie10/07 00:28非相關的人不太會去碰到吧

erisiss010/07 00:28加入無關的東西 減少畫面的雜訊(白區)

hduek15310/07 00:29理想ai跟現在的ai效果終究是有差距的

tim97030310/07 00:29感謝解說每次看到說拼貼的頭都很痛,另外想請問diffusi

tim97030310/07 00:29on model中將原圖加上噪點後如何訓練denoise,像是NN就

tim97030310/07 00:29是微分取導數求最快下降的梯度,那denoise的過程呢,如

tim97030310/07 00:29果需要大量機率的背景知識或是大大懶得解釋就算了,謝

tim97030310/07 00:29謝?

就是直接給加了noise的圖,模型吐出它覺得noise長怎樣 把它跟原本的noise算loss,求梯度而已 基本上就是在做源分離(source separation)

Vulpix10/07 00:30去噪作畫……我覺得沙畫挺像的XD 或者用磁鐵玩沙鐵畫。

kingo232710/07 00:30多拉A夢我需要翻譯年糕

XFarter10/07 00:31比較像是在玩可以把沙子拿起來砸回去的沙畫沒錯啦 diffus

XFarter10/07 00:31ion model 就我的理解就是在做這件事

※ 編輯: yoyololicon (31.205.105.234 英國), 10/07/2022 00:34:16

IllMOR10/07 00:34

friesman127010/07 00:37剛剛突然想到,假設今天再也沒有任何新的藝術創作,

friesman127010/07 00:37ai還能夠繼續學習嗎?

"繼續學習"這個字眼不是很精確,有種模型在持續進化的感覺 但實際上訓練生成模型都是把資料收集,跑training,done 不會放在線上讓它持續增加資料庫這樣訓練 不知是電影或是對抗式生成網路讓大眾有這樣的誤解 如果不再有新資料,那模型的上限就到那邊

guogu10/07 00:38沒事 說拼貼的明天繼續說拼貼

※ 編輯: yoyololicon (31.205.105.234 英國), 10/07/2022 00:42:58

carson199710/07 00:40推個

tim97030310/07 00:41原來如此感謝大大解說 簡單明瞭

Darnatos10/07 00:44推 但不想懂的不會看

afking10/07 00:44目前的AI本質上就是機率統計

friesman127010/07 00:46抱歉,用字不精確,謝謝原po解惑

jerrysaikou10/07 00:46推 但不懂的繼續跳針拼貼

healworld10/07 00:52謝謝解說

an94mod010/07 00:56嗯,我之前也是這樣覺得

coaxa10/07 00:56原來如此我懂了(完全看不懂)

ImCasual10/07 00:57嗯嗯跟我想的差不多.jpg

hjwing28010/07 01:02

CP6410/07 01:18之前是有在跟朋友開玩笑說之前修復耶穌像失敗的猴子耶穌

CP6410/07 01:18算不算跟這個模型同一個邏輯 XDD

purplemagic10/07 01:24圖片對電腦來說就是一堆色碼對吧?

purplemagic10/07 01:24選定一個點的色碼為起點,將周圍的點的色碼以

purplemagic10/07 01:24及和起點的距離等數據資料餵給電腦,找N個起點

purplemagic10/07 01:24、重複NN次,跑統計分析,電腦就能知道在設定的

purplemagic10/07 01:24那個起點周圍的點要用什麼色碼,才會符合人類的癖

purplemagic10/07 01:24好,就能畫出類似的圖。可以這樣說嗎

CowGundam10/07 01:27聽起來很像我之前看到有人說的黑洞理論,世界是黑洞表

CowGundam10/07 01:27面上的資訊投影,不過這樣為什麼會有之前被比對的肉眼

CowGundam10/07 01:27都可以看出來的描圖感呢

CowGundam10/07 01:29聽起來應該是隨機生成的噪點卻剛好跟某張圖一摸一樣,

CowGundam10/07 01:29去躁時才產生不一樣的點,算是機率問題嗎

octangus0710/07 01:36長知識 推

haha9810/07 01:37你人真好 看到拼貼仔根本懶得跟他講

orze0410/07 01:45@purplemagic AI認知的方式是一組向量

hanmas10/07 01:50可以說英文嗎

DendiQ10/07 01:51跟我想的一樣

peter9182810/07 02:08那要如何決定採納他的資料來源,他的資料來源是否有

peter9182810/07 02:08版權問題

namirei10/07 02:15感謝科普

iampig95175310/07 02:17人類畫圖不是去噪難道是創造嗎

iampig95175310/07 02:17那還取個屁材

iampig95175310/07 02:17坐在家冥想就好

k1279510/07 02:23描圖感有幾種可能啊 印象中有一種服務是你給圖然後它參照

k1279510/07 02:23再出圖的 那很相似也正常

k1279510/07 02:24另外一種就先射箭再畫把 拿一張常見動作的AI圖 直接去翻

k1279510/07 02:24一個動作像的再出來嘴砲就好

holebro10/07 02:32此生不碰deep learning

czplus10/07 04:23“像”是AI的目的,“但不完全像”這是AI合成過程中的必然

czplus10/07 04:23,所以基本上很難說是拼貼

czplus10/07 04:26“很像”的情形其實代表AI“學得不錯”,AI找出了一個能用

czplus10/07 04:26「向量」有效描述一張圖的方法

czplus10/07 04:31創作某方面也是一個“像,又不完全像”的概念,你當然有可

czplus10/07 04:31能AI生成的圖片中找到新的畫風,甚至要AI去學習那個畫風

CowGundam10/07 07:22我看到的推特那張圖的確是作者幾個月前就畫好的應該是

CowGundam10/07 07:22前者,所以應該是前者吧

jasonchangki10/07 07:59阿法狗的蒙地卡羅算不算一種燥

jasonchangki10/07 08:01所以現在AI是給它一堆圖,然後給他賽位置的意思?

q351276810/07 08:47謝謝你的講解,懂大概一點點

likeyousmile10/07 08:52

joseph261610/07 09:39強者我朋友yoyololicon ><

handsomecat10/07 15:50跟我想的一樣.jpg

linliu062410/07 20:12推推