久久国产成人av_抖音国产毛片_a片网站免费观看_A片无码播放手机在线观看,色五月在线观看,亚洲精品m在线观看,女人自慰的免费网址,悠悠在线观看精品视频,一级日本片免费的,亚洲精品久,国产精品成人久久久久久久

分享

Sora摸不著,但是咱有平替(Stable Diffusion進階篇:AnimateDiff動畫插件)

 風(fēng)聲之家 2024-03-08 發(fā)布于江蘇

原創(chuàng) 簡歷白紙一張 簡歷白紙一張 2024-02-26 18:36  1人聽過

在上個星期我曾經(jīng)寫了個筆記,,是有關(guān)于Sora這個震驚AI界的文生視頻工具,。

完了,,現(xiàn)在AI還會端著飯碗跑了(OpenAI-Sora)

畢竟比起之前所學(xué)習(xí)和講到過的Runway,、Pika之類的AI視頻生成工具,Sora所呈現(xiàn)出來的效果是真的遠遠超出人們的預(yù)期,。

Sora生成的視頻無論是體流暢度,、動作的幅度還是多鏡頭展示已經(jīng)驚艷到讓人們產(chǎn)生恐慌的程度。


像是討論度最高的AI替代人類,,還是以后詐騙更加難防的評論,,無不在提醒屏幕前的人們:潘多拉的魔盒已經(jīng)打開了,Sora的出現(xiàn)就象征著AI視頻的時代已經(jīng)到來,。

當(dāng)然Sora不是本篇話題,,畢竟我已經(jīng)寫過一篇文章了不能再水一篇。除了Sora,、Runway Gen2這種AI工具以外,,我之前還提到過一個工具-AnimateDiff。

AnimateDiff其實已經(jīng)出現(xiàn)過一段時間了,,并且直至今日還在不斷地迭代升級中,,AnimateDiff就是我們今天的主角。

AnimateDiff

AnimateDiff是一個由香港中文大學(xué),、斯坦福大學(xué)和上海人工智能實驗室的研究人員們共同開發(fā)出來的“文本到動畫”擴散模型

?

https://github.com/guoyww/AnimateDiff 

其實在之前的筆記中都有提到過制作“AI動畫”的基礎(chǔ)思路,,像是Mov2Mov、TemporalKit,、EbSynth這類工具的本質(zhì)都是將連貫的視頻拆分成一個個幀,,然后將這些幀數(shù)進行重繪最后拼合在一起變成一個“動畫”。

(Stable Diffusion進階篇:AI動畫-Mov2Move)

AI界的“抖音濾鏡”(Stable Diffusion進階篇-TemporalKit視頻風(fēng)格轉(zhuǎn)化)

讓AI也能偷個懶(Stable Diffusion進階篇:AI動畫-EbSynth插件)

在看過上述三篇筆記的同學(xué)們肯定還記得,,當(dāng)初的AI動畫本質(zhì)上是將一個視頻進行重繪,。不過這種逐幀轉(zhuǎn)繪的動態(tài)內(nèi)容生成方式其實是有缺陷的,,像是畫面閃爍嚴(yán)重、耗時較長等,。

AnimateDiff是有著針對性的效果,,讓AI學(xué)習(xí)不同類別視頻“運動”的方式從而訓(xùn)練出了一個運動模塊Motion Module。AI就可以把一系列運動的幀一次性畫出來,,所生成的內(nèi)容就會更加流暢自然,。

還有一點,這個模塊獨立于基礎(chǔ)模型,,所以AnimateDiff可以附加到任意一個大模型上,,只要你庫存有的CheckPoint都可以用來做視頻。

其實在最早的時候AnimateDiff只能在原生代碼進行使用,,但是后來有許多大佬們開發(fā)出了不同的載體例如ComfyUI的功能節(jié)點和工作流以及WebUI上的擴展插件,。

WebUI:https://github.com/continue-revolution/sd-webui-animatediff 


ComfyUI:https://github.com/Kosinkadink/ComfyUI-AnimateDiff-Evolved 

不過這篇文章將會用WebUI來作為學(xué)習(xí)平臺,畢竟WebUI更多人熟悉一些,。

目前來說WebUI中的AnimateDiff能做的基本功能有文生視頻,、圖生視頻、視頻轉(zhuǎn)繪這三大類,。

當(dāng)然這個AnimateDiff也是有門檻的,,以16幀512*512為例子開啟優(yōu)化效果的話的話大約需要最低顯存5GB,如果能有8GB的話更好,,12GB則是能滿足所有要求,。


N卡用戶的話開啟xFormers后能顯著優(yōu)化顯存占用,當(dāng)然后面也會講對于設(shè)備難以滿足最高要求的小伙伴們可以調(diào)節(jié)什么參數(shù)進行優(yōu)化,。


AnimateDiff的安裝與基本操作

在安裝AnimateDiff前需要先安裝好兩個擴展,,一個是ControlNet,這個我們之前的文章中就有安裝過,,沒有的小伙伴可以看這篇文章進行下載安裝:

擺出一樣的姿勢還不簡單?。浚ˋI-Stable Diffusion篇-10:ControlNet)


另一個東西叫做Deforum,,需要這個東西是因為AnimateDiff的擴展開發(fā)者寫了一個調(diào)用這個東西來“插幀”的功能,。


https://github.com/deforum-art/sd-webui-deforum 

與此同時AnimateDiff的運作需要一系列運動模塊和功能性Lora,最核心的運動模塊至少需要下載一個,,這里可以去Huggingface地址下載:

https:///guoyww/animatediff/tree/main 

我選擇下載的是目前我寫這篇文章的時候最新的v3_sd15mm.ckpt這個文件,,在下載完成之后放在擴展文件夾中的Models里方面后續(xù)使用。

WebUI根目錄\extensions\sd-webui-animatediff\model

在完成上述步驟之后重啟一下WebUI,,因為接下來還需要在設(shè)置中進行一些優(yōu)化改動:

在WebUI設(shè)置-左下方找到AnimateDiff(未分類里)-確保紅框中的選項是勾選上的,。

WebUI設(shè)置-優(yōu)化設(shè)置-勾選上補齊提示詞到相同長度

記得保存設(shè)置,!


AnimateDiff基本操作

在完成了上述的準(zhǔn)備工作之后就可以嘗試一下簡單的操作了,進入到WebUI的文生圖界面后可以看到拉到最下方有一個AnimateDiff選項,。


接下來先不急著動畫,,先用文生圖隨意繪制一個喜歡的二次元圖片出來:

簡單調(diào)節(jié)一下參數(shù)后要注意正負提示詞最好都不要超過75個字,不然的話可能一會做動畫會導(dǎo)致前后不一致,。

在得到了想要的圖片后可以先保存下來,,之后的圖生動畫可以用得上。不過要注意的是現(xiàn)在文生圖的這張圖片僅做參考,,沒法保證一會動畫出來的和這個一模一樣,。


接下來就打開AnimateDiff選擇啟用,如果模型列表里面沒有東西的話記得點擊右側(cè)的刷新按鈕刷新一下列表,。

如果生成一個2秒的視頻,,那么總幀數(shù)改為16幀、并且把保存格式里面的PNG取消勾選,,這樣一來后續(xù)可以快速預(yù)覽效果(與上圖一致即可)

這個不勾選PNG是怕后面每一幀生成都會保存一份,,既占空間還磨蹭。

在以上參數(shù)都完成設(shè)置之后點擊生成,,等待一小會之后會在右側(cè)看到這樣的畫面,。


這里因為設(shè)置總幀數(shù)是16幀,所以SD會繪制16張圖片,,然后將其拼合在一起,,一共消耗的時間就是差不多設(shè)備繪制16張圖片的時間。

然后就可以得到這樣的畫面啦,!

是不是超極簡單,!



今天的課程就到這里結(jié)束啦~

主要是AnimateDiff這個東西我記得很早之前我就想學(xué)習(xí),是Sora的出現(xiàn)讓我重新回憶起這個東西,,加上我學(xué)習(xí)的那個Up最新的視頻也是講AnimateDiff的,,索性就回歸一下本心學(xué)習(xí)一下。

畢竟之前的催婚我爸媽還問這姑娘有沒有視頻啥的呢,。

其他的進階參數(shù)和更多的東西就放到下一篇筆記中去講啦,,大伙下篇筆記見,拜了個拜,!

我要去做飯了,,好餓。

  • Denoising strength: 0.7

  • Clip skip: 2

  • ENSD: 31337

  • Hires upscale: 2

  • Hires upscaler: R-ESRGAN 4x+ Anime6B

  • Lora hashes: "lucy_offset: f7a664103d28"

  • TI hashes: "EasyNegative: c74b4e810b03

  • EasyNegative: c74b4e810b03"

  • Pad conds: True

  • Version: v1.7.0


文章部分參考素材來源:


原視頻教程:

https://www.bilibili.com/video/BV1zS421A7PG/?spm_id_from=333.999.0.0&vd_source=f18a24315a35799d8d1912ad50652d90 

Github 官方AnimateDiff鏈接:

https://github.com/guoyww/AnimateDiff?tab=readme-ov-file 


AnimateDiff論文鏈接:

https:///abs/2307.04725 

https://animatediff./ 

Github Deforum插件:

https://github.com/continue-revolution/sd-webui-animatediff 

Hugging face官方運動模塊下載:

https:///guoyww/animatediff/tree/main 




,。

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點,。請注意甄別內(nèi)容中的聯(lián)系方式,、誘導(dǎo)購買等信息,,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,,請點擊一鍵舉報,。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多