PTT評價

Re: [情報] 日本知名漫畫家山本貴嗣發推痛批AI繪圖「Midjourney」根

看板C_Chat標題Re: [情報] 日本知名漫畫家山本貴嗣發推痛批AI繪圖「Midjourney」根作者
midas82539
(喵)
時間推噓 6 推:7 噓:1 →:18

※ 引述《chirex (不含銅鋰鋅)》之銘言:
: 「所謂的AI繪圖就只是把各種相近色調,以及濃淡的碎片拼湊在一起,
: 讓你誤以為這東西跟你所輸入的指令很像,但你仔細發現就會知道根本天差地別,
: 這種東西我已經看到很厭煩了。」
是說之前在寫程式交易時,也有弄過一個低階版本的ai演算法,簡單地說就是
丟五個技術指標,以及像是三大法人買賣張數,委買,委賣,成交量....
然後全部讓程式自己跑,讓它自己找是否有數據上的特徵,接著丟3~4年的資料做回測。

我原本的想法是:應該可以反過來,從程式的買賣紀錄來找到可行的買賣方式。
類似從程式中學習的,不過結果跟我想的完全相反。

事實上你很難發現每個買賣點到底有啥關聯性,甚至沒有邏輯性。比如說你回測抓出
程式判斷的幾個技術指標,你會發現程式自己抓的買點會變成:
[ 若 RSI<18 且 KD>23 則在次根開盤價市價買入。]
那為何程式會這樣抓呢,因為我丟的訓練歷史紀錄中,在:
A. RSI<18後買入 B.KD>23後買入 這兩條件下買入剛好都會賺錢。
而在極端地例子下會有 A+B的狀況,又很偶然地A+B下買入又賺錢。

所以我猜程式就把這條件作為買點了。那為何說我猜呢?
因為事實上"我不知道",因為我總共丟5種技術指標。
如果我當初只有丟一個到兩個,我還可以靠回測紀錄去猜。
就像你在平靜的水面看兩道水滴的漣漪,你還可以慢慢仔細看它們互相干涉的過程。
但如果超過5滴水滴,基本上光是算那排列組合跟可能的結果,
首先你很難理解到底是哪幾個變因讓它形成結果的,而你也很難找到邏輯跟規律,
並在這基礎上人為地改善與強化。你只能看著程式自己嘗試錯誤跟自己跑出結果。

這個就是AI常被說是黑箱的原因。

再來這個策略本身可能是垃圾。
因為它只是在你的樣本空間裡湊巧成功,它不代表未來也可能重現成功。
它本身不見得會有邏輯性,就只是某些數據偶然地排列下可以重現,這個重現的紀錄
被程式發現就直接拿來用了。但只要你工作的數據是隨機產生的話,
那你其實可以預期這種無邏輯性的成功紀錄,其實只是一種偶然的聖杯幻覺而已。
這其實跟我們寫程式時要避免的Overfitting很像。但只要你全部交給程式跑,
你人類寫程式會碰到的問題,AI當然也會碰到。而且它通常會用更笨的方式來做出決策。這點就很討厭,因為它很難知道到底是哪層的哪個子程式跟子程式產出無邏輯的特徵
阿又是無邏輯你又很難幫這無腦的決策做改良與最佳化。
所以你又只能用類似嘗試錯誤的方式,慢慢試錯找到你希望的結果。


結果來說,你會發現你繞那麼大一圈來訓練程式自己寫策略,最後卻是:
: 山本貴嗣說。山本貴嗣更進一步批評,雖然人們給予他一堆指令讓他畫出來,
: 得到的成品讓人感覺很厲害很酷,但實際上AI連自己在畫什麼都不曉得,
: 終究只是不知所以然的垃圾罷了。
如果你要靠這東西吃飯,你很快就會發現這方法其實不會給你太大的優勢。
像我的話我就會認為:幹媽的浪費我時間,我還不如弄比較單純一點,
自己寫一個簡單地交易程式跟做回測還比較快。

如果你是一個可以從無到有畫出整個概念畫的原畫師,或是可以直接接案弄出V皮的繪師。那你看Midjourney那鬼東西根本就是垃圾。我幹嘛還要在那Discord裡面TRY關聯字呀?
而且更常見的問題多半是你就算你下了你認為很精確的關聯字,跑出來也不見得是你要的因為事實上你也不知道那個AI繪圖它是怎麼畫出來的。你還要不斷地試著各種關聯字
可能會有什麼效果,然後像擲骰子般找一個姑且你認為稍微有點像你要的東西,
再依照那結果再擲骰子丟關聯字,看下次丟指令生出的圖有沒有比較像你要的。

完全沒比較快作畫還像在抽卡一樣,浪費一堆時間,我他媽就直接畫就好啦,神經病。
這個大概就是目前AI作畫的極限吧。而且依賴AI做原畫跟設計集的話,
基本上對你的繪畫經驗也沒有具體幫助,所以我其實可以理解為啥畫師會討厭這東西。
不過以後如果發委託的公司或個人認為它自己用Midjourney抽卡,
偶爾抽到一張它要的原畫圖就免費賺到啦。以畫師來說也意味著委託會變少吧。
事實上就是連原畫這種很吃天分的東西,也遭遇到機器學習的競爭與威脅吧。

--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.34.10.91 (臺灣)
PTT 網址

allanbrook08/17 20:38他對畫圖的人來說比較接近初期腦內整理的過程具現化

allanbrook08/17 20:38但是真的就是"整理過程" 選擇添加跟捨去或是在哪邊刻

allanbrook08/17 20:40意改變或是加入無關元素比例等等思考 這些大致都作過

allanbrook08/17 20:40一輪後 作品的雛型才會出現 而目前AI就只有最前面那段

BITMajo08/17 20:45我覺得它可以被比喻成類似還沒練好畫技的繪師,但是跟人

BITMajo08/17 20:45正好相反,人是大概比較知道自己想畫什麼只是畫不出來

BITMajo08/17 20:46目前的AI作畫是能直接畫出作品,但"這是我要的嗎?"這樣

acininder08/17 21:06怎麼用rule base的舉例來類比gans 天差地遠的東西

acininder08/17 21:07我指原PO

首先Midjourney生成圖的過程跟GANS不太一樣,因為在鑑別(discriminator)的過程 是使用者決定的。如果你有用過的話,你會發現它是不斷等使用者用/imgine 生成四個樣本,而你再鑑別出你覺得還OK的畫,然後再用/info 試其他關鍵字 直到你try出你要的圖。而基於每個使用者的需求不同,discriminator的標準 也不會每次都一樣。我不知道你是怎麼扯到gans,可能你隨便google到反駁的吧。 不過很遺憾地,這並非事實。那款的基礎是建立在diffusion 那diffusion在幹嘛,其實就一個很簡單的迴圈。它會有一個artstation的資料集 並用CLIP這個工作層來關聯/info裡的關聯字,你不會知道diffusion跟CLIP是怎麼 連結跟隨機生成512x512圖的,然後你各位再依照產出自己做篩選。 事實上這整個流程比較像是使用者根據結果不斷地嘗試錯誤出一個它要的圖。 跟gans的對抗沒有啥屁關係,光譜上比較偏向 DDPM (Denoising Diffusion Probabilistic Model) 而如果你知道DDPM怎麼運作的,那你應該知道在運算時,它其實就只是猜你可能 要什麼樣的圖(關聯字)來做出隨機分布生成,這整個過程其實是隨機的。 而你只是針對無限的隨機生成下慢慢嘗試出你妥協的結果。 就這麼簡單而已。 這樣做的好處是啥?就運算的過程可以很快,它就先投石問路丟幾張圖看你口味 而且你可以不斷干預生成結果。不過代價就是由於過程是隨機的, 所以你也不能預期你一次骰對的圖,下一次也能骰出你想要的風格且你想要的圖。 結果來說,由於使用者本身就是用rule base來做discriminator 但過程卻是隨機,那麼你再用rule base碰到的問題當然會在ai繪圖上用到 這樣解釋懂了嗎

miyazakisun208/17 21:11現在不都是用類神經網路跑演算法嗎

tmwolf08/17 21:16如果是要出concept art的話很好用啊

※ 編輯: midas82539 (1.34.10.91 臺灣), 08/17/2022 21:43:44

shampoopoo08/17 21:47至少除非ai 像不二咲千尋 有名的藝術家可以上傳自己

shampoopoo08/17 21:47的複製人格 不然應該是不會覺得機器能取代啥 只是覺

shampoopoo08/17 21:47得ai 畫的很醜而已

kckckckc08/17 23:0310幾個input 就要預測走勢應該很難吧 股市感覺是偏重事

kckckckc08/17 23:03件導向的?

Erichikaunkr08/18 02:12解釋的不錯 長知識給推

qxpbyd08/19 00:00這AI目前不是要取代人類 是當作創作者的輔助工具

qxpbyd08/19 00:01作畫幾秒就出來 如果畫家有靈感可以先透過文字產生大概的

qxpbyd08/19 00:07https://youtu.be/g9Z0pqsCUhY 完全沒比較快是要看情況

qxpbyd08/19 00:08除非剛好遇到它無法理解的 不然速度上一定是AI 幾秒就好了

qxpbyd08/19 00:10今天有出了透過人工編輯mask引導Diffusion產生相對應的圖

qxpbyd08/19 00:11讓人對結果做更多控制和調整 雖然目前結果不太好 再過一陣

qxpbyd08/19 00:12子應該就會有更多更好的應用

qxpbyd08/19 00:12https://i.imgur.com/4TTN7Ho.png

qxpbyd08/19 00:13這是Artbreeder的介面