[轉錄]AI必定成為設計/行銷/繪圖/美編業的標配
轉錄自FB生活中的城市
建議可以看FB 有各步驟參考教學圖
例:修動漫圖片的兔耳
https://imgur.com/a/WGyc78J
https://www.facebook.com/CodeInLife
如果你最近有在發囉 AI 繪圖,我可以告訴你 Stable Diffusion 未來必定成為設計/行銷/繪圖/美編業的標配
要用 Stable Diffusion,硬體部分官方沒有建議的最低需求,但個人認為至少要有以下規格比較好:
作業系統:Windows 10以上
記憶體:16G以上
顯示卡記憶體:12G以上
Nvidia >>>> AMD
入門建議 RTX 3060,現在一張二手價大約 6000元,便宜經濟實惠;要出大圖可以選有 24G 記憶體的二手 RTX 3090,現在一張約兩萬出頭。
安裝過程
(1) 安裝Git
(2) Git下載Stable Diffusion WebUI:https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
(3) 安裝Python 3.10.6
(4) 啟動SD WebUI
(4-1) 開啟cmd,進到專案目錄後執行「webui-user.bat」
(4-2) 執行成功就會看到URL的資訊
(4-3) 保留終端機開啟,打開瀏覽器進入「http://127.0.0.1:7860」
一定要會的技能:
(1) 文生圖:
輸入 Prompt 就可以生成圖片,有正向也有負向提詞。
(2) 圖生圖
可以將上傳後的圖片加工、調整、合成或局部繪製,可以幫圖片中的人物換場景、髮型、背景或將畫壞的部分修正。
有非常多參數可以調整,包含算圖的取樣方式、輸出圖片尺寸、輸出圖片與 Prompt 的匹配程度,都會影響繪圖效果
(3) 多種預訓練模型可以選擇:
除了SD預設的模型,網路上還有許多其他創作者訓練的模型,每個模型擅長的風格不同,可以在Civitai和Huggingface自行下載安裝
A. https://huggingface.co/
B. https://civitai.com/
(4) 各種模型輔助微調效果:
由預訓練模型生成圖片通常不會一次到位,所以還有非常多模型輔助在預訓練模型的產出結果上微調,像是人物的動作、背景、光影、色調等等,來達到理想的效果
(5) 自訂圖片的風格:
如果你想繪製的風格已經有一系列圖片可以參考,可以使用 Textual Inversion,從這些圖片中學習風格後套用在指定物件,或是用 Hypernetwork、LoRA 直接套用喜歡的風格
(6) 自訂圖片的構圖:
ControlNet是一種神經網絡模型,主要用來控制構圖,例如人物動作、場景,也有非常多模型可以使用,Openpose、canny、scribe幾乎是AI繪圖師必備工具
A. Openpose、3D openpose:可以自行指定人物的骨架來調整動作,或是從圖片解析出的人物的骨架圖
B. 手部經常崩壞的問題大多也能透過ControlNet的模型解決,例如可以用Canny先人工繪製線稿再重繪手部
C. Muti-ControlNet:可以使用多個controlnet模型來調整構圖,例如可以下載辨識場景配置的模組,加上人物動作、手勢的模組
(7) 生成自己的模型:
A. 融合模型:可將至多三個模型融合,產生獨特風格的預訓練模型
B. 自訓練模型:準備好訓練用的圖片資料也可以訓練自己的模型,包含Textual Inversion、Hypernetwork、LoRA、DreamBooth
(8) 製作動畫:可以透過 gif2gif 或 mov2mov,直接轉 GIF 圖片或影片,另一種方式是用Multi frame render 將要製作成影片的每一幀圖片重繪後輸出成動畫影片
--
好文感謝
異世界必定成為人類解決人口問題的標配。理由:不~用
方式:1.卡車轉生 2.過勞轉生 3.御宅轉生 4.捅肚轉生5…
老黃發大財
葉
05/27 02:07
轉這甚麼業配廢文...要教學沒教學 原因 立論啥毛都沒有
46
[瑟瑟] 看色圖不求人Part2 AI生成色圖全教學古拉鎮樓 (從Discord搬運 非本人生成) Part 1 在這 不重要 過時了 這篇將包含所有你生成色圖需要的資訊 1. 使用者界面 Stable Diffusion Webui34
[閒聊] 驚!看色圖不求人 AI是否也能畫色圖?雖然下了很農場的標題 但這一篇認真的研究論文 大家或許以為AI跟色圖很遙遠 但事實真的是這樣嗎 在一年前可能沒有錯 但經過最近的突飛猛進 故事已經進入了新的轉捩點29
[AI] 如何訓練LoRA? 猴子都學得會的手把手教學!先附上預覽圖,幼妲貼貼: 網頁好讀版: 前言都是一些廢話,如果只是想知道如何訓練LoRA,可以直接往下跳至分隔線。29
[討論] 手機跑AI繪圖 Stable DiffusionAI繪圖軟體,最近比較熱門的是Stable Diffusion,它的好處為能在自己的電腦跑,而不 用依賴雲端服務,硬體到位想做什麼都可以。 這時候不禁想到,手機是否也有跑AI繪圖模型的辦法?畢竟都有人用樹莓派跑了 最近有開發者自行移植Stable Diffusion到iOS平台,蘋果使用者可以直接下載APP來玩, 配合最新iPhone的性能,幾分鐘就能出圖,該APP稱之為Draw Things。19
Re: [閒聊] Ai 快要可以做動畫了?剛剛看到版友推這個 如果我理解無誤 代表只要給它剪影動畫 還有一個認識角色的模型 就可以生成動畫 如果效果再穩定一點9
Re: [閒聊] 所以AI應用到繪圖領域,爭議怎麼這麼大棋譜沒有版權,圖畫有 AI生圖的版權糾紛很難處理 而且這次stable diffusion其中的waifu模型,或是NovelAI 都使用了圖庫danbooru 包含大量非正式授權圖片,網站本身已有人幫圖片上標籤省去超大量人力10
Re: [問卦]有了AI繪圖 還要追+9的IG嗎?看原文底下留言跟一些其他篇的留言,都會有人說AI繪圖的太過韓國臉,那是因為PO圖的可能菜鳥或剛好喜歡這類風格的。 AI繪圖現在主流是Stable Diffusion,三次元的主模型大都是偏韓臉,但其實可以靠次模型LORA這類變成其他風格。 但即使不靠LORA,光指令輸入國籍、種族、混血、清純、可愛、蘿莉、熟女就能有很大變化了。 甚至是畫三次元時,也能輸入一些漫畫遊戲名作來影響風格 (但還是會被你的主模型影響)5
[閒聊] 反魔法屏障 NO-AI 浮水印工具簡介: 部分AI繪圖工具會讓生成的圖片加上一個隱形的浮水印,避免被AI模型二次訓練, 過去有人提議用這個辨識是否是AI生成的圖,但破解方法太多了。 (也不是所有AI軟體都會加上,甚至能關掉這樣的功能,也還是防堵不了描AI圖之類的)2
[AI] AI繪圖 我推if晚安~小弟我是新入詠唱學院的學徒啦 首先感謝板上cybermeow大大提供的模型 不過可能我操作有誤之類的,所以跟我現有慣用的checkpoint不能很好的配合,直接用模型來產圖又原廠風格太重,稍微失去了點同人的感覺。 只好自己用神秘比例烘焙一個帶了VAE的checkpoint來產圖 接下來只要先用ControlNet告訴AI我要這樣的三個人抱在一起的構圖,然後就開始卡恰:X
[學習] 付費-台北-5/27 AI生圖詠唱術自己畫小模想嘗試AI生圖,發現別人都畫出美圖,自己卻都算出怪物? 短短數月間,Midjourney與Stable Diffusion等AI繪圖工具已經幫助許多創作者在短時間內 製作出高品質的圖像,不僅成為美術設計領域中不可或缺的工具之一,也是許多商務工作亟 欲掌握的新科技。 但AI繪圖也不是每發必中,除了資料庫的基礎外,更重要的是關鍵字的選擇,以及所組成的
45
[閒聊] OPENAI出現前,OPENAI出現後43
[24秋] 魔王2099是搞笑作品嗎==41
Re: [閒聊] 有辦法將綠鬣蜥全部移除掉嗎?39
Re: [討論] 有什麼理由讓你玩鳴潮卻不玩原神?78
[閒聊] fate動畫順序36
[閒聊] 台灣異世界轉移30
[問題] 果列奴是什麼系的能力者32
[閒聊] 真三八大爆炸後是怎麼做出起源這麼好玩31
[閒聊] 動漫歌翻唱中文歌到底都是誰在聽31
[情報] 經紀公司猛烈回擊 公開與T1談判時間軸24
[閒聊] 對泰國的印象?☺24
[問題] 想要得到一些遊戲或放鬆的推薦23
[妮姬] 太邪惡了!23
[Vtub] holo英語聽力學習 中文版開箱 會話藏哏19
[問題] 關羽跟張飛是天生神力嗎?45
[英國] 金搖桿獎:黑悟空得年度最佳遊戲肯定26
[閒聊] 正要看少女樂團 吶喊吧 需要注意什麼?18
[閒聊] 彌海砂黏土人 2.0 即將開放預購16
[閒聊] 茅原実里:涼宮春日新曲錄音!22
[閒聊] X-LAWS的潮度在死神可以排到哪裡?14
[24秋] JC.Staff這季是不是有點猛啊?13
[光榮] PS4無雙群星跟無雙蛇魔哪個比較好玩24
[討論] SQEX 的 Life is Strange 最新作翻車了36
[閒聊] 真・三國無雙 起源 DEMO 呂布你他媽14
Re: [討論] 有什麼理由讓你玩鳴潮卻不玩原神?12
[閒聊] 這次鳴潮包緊緊是在為skin鋪路嗎47
[閒聊] 鐵道3.0劇情應該不會搞砸吧16
Re: [閒聊] 偶像大師MLTD的3D列印模型9
[蔚藍] 9023
[我英] 為什麼大家會覺得出久做速食店打工仔?