[瑟瑟] 看色圖不求人Part2 AI生成色圖全教學
古拉鎮樓 (從Discord搬運 非本人生成)
https://i.imgur.com/HWRVeJW.png
Part 1 在這 https://www.pttweb.cc/bbs/C_Chat/M.1662444496.A.2E6
不重要 過時了 這篇將包含所有你生成色圖需要的資訊
1. 使用者界面 Stable Diffusion Webui
天天更新官方的在這裡
https://github.com/sd-webui/stable-diffusion-webui
但個別版本一堆主流好像是用1111的 個人也是用這個
https://github.com/AUTOMATIC1111/stable-diffusion-webui
跑起來大概長這樣
https://i.imgur.com/JmYKTSv.png
安裝方式按照每個網站說的 像是官方的寫這樣
windows
https://github.com/sd-webui/stable-diffusion-webui/blob/master/docs/1.installation.md
linux
https://github.com/sd-webui/stable-diffusion-webui/blob/master/docs/1.linux-installation.md
1111的Nvidia卡寫這樣
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-NVidia-GPUs
個人linux就是clone回來
開conda環境
跑python launch.py
有dependency問題就修 然後就好了
另外也有用Google Colab的選擇 只想測試沒有要瑟瑟的人可以用
使用上就像上面那張 可以選擇 postive 跟 negative prompt
https://i.imgur.com/JmYKTSv.png
positive個人一般放 artwork of ... 之類的
negative很迷 可以放一些感覺負面的東西 (如圖中所示)
也可以試著避開一些結果例如把opened mouth放過去讓嘴巴閉起來之類的
到底怎麼找到合適的prompt蠻不直覺的
而且很浪費時間 畢竟這個東西一個月後大概就長不一樣了
所以下面會介紹其他方式來生成想要圖片
2.模型
有了使用者界面最重要的當然是模型本身
幸運的是現在很多人在訓練 從一般的到動畫到瑟瑟到pony到furry都有
這裡整理了一些
https://rentry.org/yrpvv
一般ACG用Waifu Diffusion 這週末會釋出v1.3
要瑟瑟用Lewd Diffusion 不太好控目前只是beta beta beta版本
大老們還持續在蒐集資料跟訓練中
載下來後傳到webui資料夾裡面models的資料夾就可以用了
理論上用哪個模型現在可以直接在Settings換就可以
不過目前似乎有bug所以behavior有點迷 有時候直接整個關掉重開比較方便
另外因為是開一個port 可以在伺服器開外部ssh進去
也有支援直接public開給人用等等
3.圖片生成: 學習概念篇
如上所說 要用prompt生成想要的圖片實在不易
所以個人推薦自己跑一個 textual inversion 學習你想要的概念的embedding
之前已經發了好幾篇實作案例
https://www.pttweb.cc/bbs/C_Chat/M.1662622748.A.4E6
https://www.pttweb.cc/bbs/C_Chat/M.1662808060.A.746
https://www.pttweb.cc/bbs/C_Chat/M.1662880538.A.386
這一次拿來測彩奈
https://i.imgur.com/H7XS3YX.png
頭髮遮眼睛真的學不起來 髮飾則微妙
要學這個embedding個人測試過兩個 分別是
以stable diffusion原本repo為基礎的
https://github.com/lstein/stable-diffusion/blob/main/docs/features/TEXTUAL_INVERSION.md
和diffuser的
https://github.com/huggingface/diffusers/tree/main/examples/textual_inversion
學這個12GB Vram的話圖片大小用448x448才不會記憶體容量不足
Vram更多直接用原本的512x512就可以
個人覺得diffuser的操作起來比較容易但每次重新複製整個模型很迷
如果用diffuser的話產生的東西裡面會有會有一個.bin的檔案就是學到的embedding
至於用第一個好處是可以用tensorboard看當下進度
而其中目前生成的圖片會存在log/..../images/train面
可以大概判斷一下目前學的如何 覺得ok的時候停掉
跑的過程會直接產生一推.pt的檔案在checkpoints裡面
之後就在webui開一個embeddings的資料夾
把想要的.pt放進去 如果沒意外你可以選最後一個 (embeddings.pt)
改一下名稱 像是arona.pt 之後prompt直接輸入arona拿學到的embedding
如一開始的圖所示 (這裡用arona0)
https://i.imgur.com/JmYKTSv.png
至於diffuser生成的.bin檔案把結尾改成.pt一樣同一個方法用
textual inversion因為不調模型只學embedding所以受限於模型參數本身
沒辦法完全重現想要的結果
想要更符合的圖片的話 除了直接finetune還可以用dreambooth
https://github.com/XavierXiao/dreambooth-stable-diffusion
比起finetune只需要少量圖片
跑起來比textual inversion還快 (不到一小時)
缺點是訓練出來的模型沒有相容性 一個觀念就一個模型
而且因為調整個模型需要30G Vram 現階段幾乎只能用雲端服務租A6000
不過很便宜 舉例來說 一個人訓練的古拉模型花才幾百台幣
可以得到以下成果
https://i.imgur.com/jYQA6gC.png
比起個人之前的文章很明顯更好的學到了特徵
只是dreambooth學到的東西也不好控制
常常prompt給錯就整個崩掉
相較之下textual inversion得到的結果雖然比較差但壞掉時也是漸進式的
下面的古拉自拍系列prompt也調很久
https://i.imgur.com/69dRvb7.png
開頭那張也是這個模型生的
4.圖片生成: 以其他圖片做基底篇 Image to Image
webui功能一大堆天天更新有興趣的可以自己看
這裡再介紹一個image2image用圖片當輸入作為參考
就某個角度來說它這個implementation是用個很簡單的演算法
效果差強人意
但拿來做風格微調或者當作圖片構圖基底還算能用
界面長這樣
https://i.imgur.com/fczYbl2.png
使用範例 拿來把戀X或女X3dX的圖2d化
像這張 (取自https://www.pixiv.net/artworks/85531604)
https://i.imgur.com/47jljPp.png
或是 (目前的模型仍然有生成四肢障礙
https://i.imgur.com/x7WxXHa.jpg
Denoising越大會離遠本圖片越遠 因為會先加一堆噪音開始重新繪圖
(圖片生成原理細節: https://www.pttweb.cc/bbs/C_Chat/M.1661681711.A.DE3
再貼幾個 (右3d 左2d化
https://i.imgur.com/dRBO1Qp.png
source:
https://www.pixiv.net/artworks/87009158
https://www.pixiv.net/artworks/85178188
https://www.pixiv.net/artworks/85443189
當然像是lyroris那篇把2d真人化也可以
當輸入是就是真實系3d cg
只能說效果很可怕 基本上就是deepfake
然後目前雖然有支援inpainting也就是把缺失部分補足的功能
但個人發現diffuser跟stable diffusion原本repo的演算法不一樣
webui應該是用後者
然後兩個演算法感覺都沒到很好
所以有興趣的人應該可以藉此水一篇paper (雖然應該一堆人會去水了
5.色圖
上面那套用正確的模型下去做基本上可以生成各種色圖
不過目前主要受限於資料品質以及clip embedding相關知識不足
當姿勢或視角跑掉太多基本上幾乎生不出來
日本的馬賽克規定也變相增加訓練難度 使得關鍵部份常常效果不佳
但各種調整還是可以有不錯的結果
有興趣可以去 4chan h/hdg 看 (不過那裡也混了各種真實系的
以下示意圖應該不會被桶吧?
https://i.imgur.com/hcC4K9n.png
置底貼個彩奈換裝系列 效果依舊差強人意
https://i.imgur.com/a8gffeN.jpg
更多資訊可以參考
https://wiki.installgentoo.com/wiki/Stable_Diffusion#Waifu_Diffusion
網路上有幾個discord也都可以加 (應該都是英文的
--
北歐組一生推
https://i.imgur.com/ydMoryp.jpg
--
推
色色
瑟瑟教學
爆讚
推
最正確的使用方法
※ 編輯: cybermeow (172.58.38.170 美國), 09/20/2022 09:43:37
推
所以這可以訓練r18圖嗎
上面lewd diffusion就是完全在ACG r18圖訓練的 真人的更是行之有年了 furry pony也都是有R18的
推 科技進步
完成這些的人應該領諾貝爾和平獎
色圖永動機要研發成功了嗎
學術研究
學...學術研究(鼻血
謝囉
會不會以後有人用殭屍電腦來畫色圖上傳牟利啊?
畫圖ai最終都會被人類訓練成只會畫色圖
槓 文組看不懂啦
浪漫 優質
AI:人類就是色色
還好AI不看迷因,不然畫一畫都變阿姆斯壯
以後不用去理洽請神了
這篇有點猛
電腦白痴的我已經過載了
有沒有一鍵生成澀圖的啊?
你安裝完成就是一鍵了 或是請別人安裝好開給你用也是一鍵 剩下就很多東西要調整自己想文字放什麼 使用者介面倒是做很快 開源來這個月每天都在飆 剩下或是背後演算法要好 之後有自然會有人寫介面
看不懂也要先推
太爽辣 色圖自給自足
爆生時間
推
以後色圖自己產
為什麼覺得AI瑟瑟比手繪色色還複雜.....
因為還在開發階段 五年後就不好說了
※ 編輯: cybermeow (172.58.38.170 美國), 09/20/2022 10:27:27※ 編輯: cybermeow (172.58.38.170 美國), 09/20/2022 10:29:25
推
畫圖學不好,電腦又學不好,我還有什麼用QQ
推 有空也想來研究一下
太強了
推一個w
太苦了 我只是想要瑟瑟
了解,我需要找電腦工程師表妹幫我裝好
這樣會社死嗎?
跟她說要用人工智慧進行藝術創作 聽起來就很潮
一天10次有材料啦
好奇你兩個upscaler的來源是哪裡? Reddit的unstablediffus
ion被BAN了 NovelAI也有自己做了anime和furry model
我就用模型生成沒用upscaler欸 novel ai都不開源搞sfw吧zzzzz
等到AI理解人類性癖的時候,就是決定要毀滅人類的時
刻了
感受到時代的進步
我比較怕以後有人大量生產157
沒事Google到了 NovelAI至少他DC現在是可以免費產圖
我不確他之後是走midjourney模式還是會開源 不過SD一開始
在DC也是會用SFW filter 幫助他們產生SFW版本
走商業模式是沒辦法 只能說SD創辦人太有錢 目光也很遠
需要賺錢的確是現實上很麻煩的點 理想上是走開源軟體那套做Open Source software as a service 而且老實講現在這個東西這麼多人搞 實在不看好靠模型賺錢 不如開源演算法模型趕快做平台 hugging face 也是幾乎都開源的 市值也到了20億美金 不知道他們商業模式怎麼樣 訓練waifudiffusion的人說 but if they do make some high quality smut model and never open source it, i'm g oing to just train a clone of it and make it open source. 然後也不知道是受限於美國商業文化還怎樣 全部都畫地自限做sfw 像是今天讓幻影社來做是不是就會完全不一樣 明明nsfw也是很大的商機 當然把這樣的模型用midjourney那套做也不合理 雖然理想上是把nsfw模型開源給所有人用 然而這背後確實也有很多的社會因素需要探討 只是實在是很不爽很多公司什麼都商業機密那一套
※ 編輯: cybermeow (172.58.38.170 美國), 09/20/2022 12:05:33※ 編輯: cybermeow (172.58.38.170 美國), 09/20/2022 12:18:14
推
色色
太棒了 但是看不懂
哇靠 我好像玩得起來 來試試
太專業了
優文
瑟瑟貓千萬要小心別被FBI抓走了==
會注意的 多謝關心 祝大大一生上廁所都有衛生紙
太神啦
謝謝 光看你這篇我就好了
滿詳細地 也來玩玩看好了
詳細推 顯卡:我到底學了什麼東西
爆
[外絮] 鉛筆:若76人為了奪冠交易我也可以鉛筆:若76人為了奪冠交易我也可以 Whatever the case, the All-Star center has begun to prepare his body and mind fo r the long offseason ahead. That starts and ends with some tough personnel decis ions. And Embiid doesn’t intend to have any input on what the front office does this summer.爆
[外絮] 西門寧願不投也不願投丟西門寧願不投也不願投丟 A Star Who Won’t Acknowledge Flaws 一位不願意正視缺點的球星 The piece spoke to an involved source who was among those questioning Simmons’ work ethic, in particular his seeming unwillingness to properly address his main爆
Re: [心得] 被莫名其妙綁定自己從來不用的 OPEN 錢包我是幫苦主與幾位受害者調查與做數位鑑識此件事情的資安顧問.苦主被盜刷第一時間就 報警並聯絡我.在這次的事件中我用我的專業談談,並把一些版友友興趣的資訊上色強調: 1.苦主被盜刷的卡是滙豐銀行. 詐騙集團精心偽造某家第三方支付的刷卡頁面與3D驗證頁面, 並不是苦主傻傻把OTP直接交給詐騙集團.大家要小心假冒的第三方支付與3D驗證頁面!!爆
Re: [問卦] 杜奕瑾:烏俄戰爭駐批踢踢內應的也沒欸,我PTT外商碼農阿肥啦!現在還在當研究員,有六年機器人語意理解的研究經驗啦! 請杜先生可以認證我是同路人,我真的無所謂,就把我當在地五毛好了,反正我未來想換 工作也不打算投你們公司履歷。 不過我自己用午休15分鐘已經把你開源的代碼opinion那個看完了,還沒找到你說得國際 論文,先以你的代碼來推測。爆
Re: [問卦] 杜奕瑾:烏俄戰爭駐批踢踢內應的也沒閒著創世神除了架了PTT 請問還有什麼其他東西? PTT這20年也一直在改變 實際上很多功能都是後來的站方弄的 他其實就是在PTT紅了之後出來蹭的92
[討論] 周興哲:華語音樂商業歌曲是可能最賺錢的小人老師新的限動 太氣了吧 = =45
[心得] 使用開源應用商店F-Droid的好處F-Droid是一個第三方Android應用商店,跟Google Play和其他應用程式商店不同,F-Droid 只接受自由/開源軟體 (GPL或MIT都可以,至少不能完全閉源)。 有開發者會選擇在F-Droid和Google Play同時上架APP。 不過F-Droid有更多「技術上合法,但Google Play不允許存在」的APP,例如擋廣告用的Ada way,更棒的是它們是開源的。42
[閒聊] AI生成大量高品質泳裝鯊鯊 (NSFW)還說什麼AI抓不到鯊鯊的特徵 笑死 v1.2推出了啦 根本是自己不會用模型 這不就來了嗎34
[閒聊] 驚!看色圖不求人 AI是否也能畫色圖?雖然下了很農場的標題 但這一篇認真的研究論文 大家或許以為AI跟色圖很遙遠 但事實真的是這樣嗎 在一年前可能沒有錯 但經過最近的突飛猛進 故事已經進入了新的轉捩點
爆
[閒聊] 不敢繼續誘惑這孩子了83
[閒聊] 查獲科技公司架設「楓之谷私服」獲利2億66
[閒聊] NS新機會不會首發陣容貧乏啊?71
[閒聊] 真島浩:本來打算連載結束後要盡情打電動69
[海賊] 真人版選角條件公開 羅賓將是拉丁裔68
[情報] 新鋼彈模型情報49
[閒聊] 失落の方舟 台服 5/30 啟航58
[討論] 絕地戰兵2 管理式社經遭解職81
[Vtub] 5/7同接鬥蟲33
[閒聊] 妮姬玩到26章突然覺得指指很渣34
[蔚藍] 哇幹 莉央的表情逐漸哇幹34
[Vtub] 憂世 22萬訂閱的YT頻道被ban31
[閒聊] 如果可以想去哪間ACG公司參觀?29
[問題] 人類該怎麼應對成群的暴君與舔食者31
[Vtub] PM和好了沒?29
[奶子] 自然文明大奶28
[閒聊] 迷宮飯-各式各樣的瑪露希爾28
[情報] 夜晚的水母不會游泳 06 先行圖 預告36
[閒聊] 對日本高中生普通和特別真的很重要嗎21
[討論] 邏輯的要求484變高了26
[情報] 新.XYZ飛龍炮24
[閒聊] XBOX要在發表會拿出什麼東西才能洗刷負19
Re: [取暖] 我媽:不准買月卡23
[情報] 「RG RX-78-2 鋼彈 Ver.2.0」揭曉全貌22
[馬娘] 02皋月賞馬莫名其妙過世22
[CG] 每月8日是桃華之日22
Re: [情報]新鋼彈模型情報35
[閒聊] 女生之間吵架都會鬧很久嗎?19
[閒聊] 三上真司:Tango closed. Sad.20
[蔚藍] 茶會VS萬魔殿