Re: [閒聊] Ai 快要可以做動畫了?
剛剛看到版友推這個
如果我理解無誤
代表只要給它剪影動畫 還有一個認識角色的模型 就可以生成動畫
如果效果再穩定一點
這樣已經很省工了吧
最近也有看到用mobilepose控制stable diffusion 的文章
--
是的 大膽預言未來由於動畫製作成本大幅降低
動畫界將迎來一個全盛期
我們每季都會有數十部 不 百部以上的動畫可以看
滿意了嗎
滿意
省工?
這應該還是很複雜的 就跟用live2d或mmd
做出某些很實用的場景姿勢畫面 也和做整部動畫是兩回事
一直都在技術演進阿 CY就是業界動作捕捉頂尖可以用在
跳舞不需要全靠動畫產
現在還有家用3D 跟4 5年前Live2D已經差多了
恭喜你理解有誤
請問有誤在哪? 是否搞錯什麼
[形] 節省人工、人力,也可用在省事。 教育部網站
我只是看到東方
https://reurl.cc/Rvzg5r (FB影片) 比較接近的是這個吧
也只能二創 難道你原創還要搞個影片再用ai算嗎
樓上就是用mobilepose控制stable diffusion啊
但我覺得bad apple這個特別的是 有限定東方角色
只需要骨架 不需要影片
電腦還有得學啦,等到動作技術成熟,用AI生成流暢的
動作(更甚之還得符合動畫語法),才能直接套在3D骨架
不如這樣問好了:你怎麼用這個達成省工的?
舉例好了 當然不是現在就可以 今天要做無職轉生第五季 把前四季的角色人設灌到模型裡 在製作第5季時 1. 影格A/B: 用現有流程產生 2. A~B間之畫面: 只要提供骨架 (手繪也可以, photoshop現在內建AI也是這樣), 讓AI算出
※ 編輯: attacksoil (111.250.172.249 臺灣), 03/11/2023 09:04:493D已經夠用了
現在動畫用3D的還是很少吧 應該還是很貴
這個要修改看起來沒有比較容易啊
這影片比較像機器人夢境,印象派
3D比2D便宜多了
??? 應該不會吧 不然怎麼現在大都是2D動畫
現在最新的是這個http://b23.tv/ajFqXGu
無渲染粗模3d轉2d
這個方向也不錯 降低3D成本
不就很多圖連在一起而已??
動畫就是很多圖連在一起啊
這已經吊打1930年代米老鼠黑白動畫了
https://youtu.be/3hoThry5WsY 是被1930米老鼠動畫屌打
以前的迪士尼動畫真的很鬼
那動畫現在看還是滿好看的XD
動畫要有背景,光正確透視就難到不行了,分鏡也都是不連
續有節奏跟斷點的,頂多拿來參考好用,要當真的動畫還早
現在顏色也不一定是對的,線條也不連續,要怎麼當真的動
畫
用英文的看不懂右上角水印不知道要怎麼找資料就算了
你用中文的明明搜一下就可以看的原製作者的說明了……
複製說明過來:這是用NovelAI的img2img功能生成的,
每幀畫面的prompt均為DeepDanbooru識别(取0.75概率以上的
輸出),為保證畫面一致性,設置前後幀之間seed差為1,
全影片seed差最大為200。
由於是自動識别畫面内容,因此會出現畫錯了或者畫崩了
這種情况(手動生成可以一直抽卡抽到满意,但是太耗時)。
整个影片一共37674幀(編輯前),生成共耗時1:18:18
(硬體:i9-12900K, 32GB DDR5 4800Hz, RTX 3090)
感謝樓上分享 但不知道你是想表達什麼?
這影片感覺就是用MMD版Bad Apple弄的吧...
用3D動畫成品去生成2D動畫,Genius,真他媽天才
原文影片單純使用img2img,如果是像你說的只需要骨架,
至少也用個control net吧。
喔喔 用骨架控制 是指推文中的連結 不是指bad apple
我不知道某樓是不是基於這個理由噓你
但你的理解的確有哪裡怪怪的
另外B大說的是正確的,原著作者有說他使用的是這個影片
*原製作者
原來如此 難怪可以都是用東方人物
所以AI玩家為了好玩做了出來,然後有人當真(?)了
這究竟是人性的扭曲還是社會的腐敗
controlnet搭配stable diffusion本來就可以做到指定角色啊 只是這影片不是這樣做的而已
※ 編輯: attacksoil (111.250.172.249 臺灣), 03/11/2023 12:29:00你只用control net骨架的話你還得先訓練模型,不然你
角色做出來就算同角色差異依然會很大,然後還得請3D動
畫師做3D動畫或是花大錢架動補,再一張張生成。每一幀
對 所以我舉例才是提無職轉生第五季 還是要有人畫原畫 訓練模型
生成出來之後,還得要在沒有圖層的情況下去修正每一張
畫面的抖動感
i2i都會有細節差異了
例如前面Meuf推的 用控制seed的方式 就是想解決這類問題 應該還有不少改善空間吧 畢竟動畫是連續的 可用前後影格參考 確保連續性
※ 編輯: attacksoil (111.250.172.249 臺灣), 03/11/2023 12:38:04成品看起來有很大的改善空間沒錯
工具部分不知道訓練起來會花多少時間
指定角色的訓練已經有很多相關技術了 生成網路的影片輸出(好幾年前的deepfake就是) 現在也有很多發展 我是很看好啦
※ 編輯: attacksoil (111.250.172.249 臺灣), 03/11/2023 12:42:31目前這情況有點像是在反應ML模糊比對的特質
有看到另一個應該也是想處理畫面抖動感的,不過結果上只能
說
還有很大的進步空間XD
果然還是從增進AI繪製角色的穩定度下手比較治本
那是之前的吧 現在願意花時間可以做出臉不太會壞的
噓的人拉坨屎就走 跟他較真幹嘛 直接封鎖
爆
[閒聊] 日推網友: AI怎麼都往色色方向詮釋今天釋出的付費服務NovelAI-Image 由於其在日系作畫表現上遠超stable diffusion等AI效果 在日推上衝上趨勢 也一堆網友付費嘗試 但漸漸地發現一些怪怪的地方 A網友: 生成詞先試個 體育爆
[奶子] AI生成的大奶綠母狗34
[閒聊] 驚!看色圖不求人 AI是否也能畫色圖?雖然下了很農場的標題 但這一篇認真的研究論文 大家或許以為AI跟色圖很遙遠 但事實真的是這樣嗎 在一年前可能沒有錯 但經過最近的突飛猛進 故事已經進入了新的轉捩點15
[閒聊] DDPM: 從隨機微分方程到AI圖片生成週末閒著來聊聊最近很紅的AI生成動畫圖片 不廢話先上圖15
Re: [問題] 有可以討論AI繪圖關鍵字的地方嗎?NovelAI最近的tech blog正好有聊到這議題 主要是在clip module上面 首先看這張示意圖 主流的(Dall-e, imagen, stable diffusion)架構由兩塊組成8
[閒聊] AI生成2D動畫雖然已經有人著手做了 但這一段AI生成的2D手繪風動畫效果還不錯 分享一下 推特使用者@8co28 分享了一小段NovelAI處理生成的動畫 原影片是MMD的3D動畫"おねがいダーリン" 讓NovelAI處理的結果6
Re: [閒聊] 自己動手玩AI繪圖Diffusion model 紅起來後這塊推太快了 mid journey才要商業化就已經過時了 從openai的dalle-2 到google的imagen4
[閒聊] 原神雷電將軍PV Ai轉換動畫(b站連結不喜勿入) 原作者在評論區留的做法: 1. 把影片轉換成序列幀圖像(用AE 或 PR 24幀每秒) 2.用圖生圖模式轉換全部圖像(用stable diffusion的本地版)3
Re: [閒聊] AI生成的小模寫實寫真GAN的原理和Stable Diffusion根本不一樣 Diffusion就真的這幾年的東西 至少我兩三年前還在用GAN的時候根本沒聽過這東西 SD這大模型還是去年下半年才出來的呢 所以這就是新東西 : Stable Diffusion開放以來一直都有擬真人圖- 這應該只是純粹只有用 Stable Diffusion 要更逼真一點的話,最近推特上有個帳號 主模型採用 ChilloutMix 去訓練 可以生成接近真人寫實風格的照片:
爆
[沒了] 索尼下架星鳴特攻全部週邊商品96
[閒聊] 岸田メル:台灣鄉下在賣無視著作權的伴手禮56
[閒聊] 湯圓喜歡吃甜湯圓還鹹湯圓?57
[星戰] 達斯維達的人氣為什麼這麼高?52
Re: [妮姬] 這次聖誕活動不會再發刀了吧39
[問題] XBOX菁英手把評價如何32
[閒聊] 男女亂馬明明畫的差不多怎麼一個有點可愛31
[閒聊] 外食曾經發現什麼特別「加料」?☺30
Re: [閒聊] 失智症到底有多殘忍?29
[死神] 所以七緒的斬魄刀還可以幹嘛28
[情報] 檜山沙耶 結婚25
[閒聊] 為什麼mujica 比mygo窮?25
[閒聊] 日網熱議 エビ揉め23
Re: [閒聊] 巴哈手遊區12/18前20人氣鬥蟲24
Re: [閒聊] 我推的孩子 黑川茜後日談相關23
[妮姬] 阿桃和咪卡37
[閒聊] 不再政治正確 皮克斯新作跨性別角色不見20
[蔚藍] 讀書中的阿魯19
[人龍] 黑田崇矢:桐生一開始很不會唱卡拉OK14
Re: [情報] 檜山沙耶 結婚16
[閒聊] 矮真的這麼慘...?15
[公連] 煉獄活動 芙蕾雅開放10小時已被擊倒12萬次15
[ZZZ] 這就是內部愛的含金量嗎15
[閒聊] 星見雅和淺羽悠真是情侶嗎14
[妮姬] 大家都有美好的未來22
Re: [補番] BanG Dream! It's MyGO!!!!! 溫馨動畫14
[鐵道] 靈砂有了13
[奶子] 雙馬尾陰角辣妹18
[閒聊] 韭留美醒來看到美股爆崩會怎樣?12
[閒聊] 黎斗是不是假摔倒真揩油?