画像生成を高速化するLCMとSDXL-Lightningを使ってみる【Stable Diffusion web UI】
ฝัง
- เผยแพร่เมื่อ 25 มิ.ย. 2024
- LCMやSDXL-Lightningを使うと従来の数倍の速さで画像生成できるようになります。Stable Diffusion web UIで使う方法を紹介します。
画像生成AIはノイズ画像からノイズを除去して画像を浮かび上がらせます。ノイズ除去には数十回(ステップ)必要です。これを8ステップほど、理想的には1ステップで行うテクニックが提案されています。ステップ数を減らすと単純にそれだけ画像生成が速くなるので10倍以上速くなる事もあります。
どちらも専用のcheckpointを使う方法とLoRAを使う方法があります。LoRAを使えばいろいろなcheckpointで高速化できます。
LCM-LoRA
stable-diffusion-art.com/lcm-...
SDXL-Lightning
huggingface.co/ByteDance/SDXL...
チャプター:
00:00 イントロ
00:17 高速化の考え方
02:05 LCMs
03:05 SDXL-Lightningの使い方
04:05 SDXL Turboの使い方
04:32 生成画像の比較
07:30 まとめ
08:48 エンディング
#stablediffusion #画像生成ai - วิทยาศาสตร์และเทคโนโลยี
いつも参考にさせて頂いてます。高速画像生成についてこんなに丁寧に解説してくれているのが他に無かったのでとても有難いです!
早速自分でも試して見ようと思います。
ちなみに素人の質問ですみませんが、今回の機能はLora作成(学習)速度には関係無いですか?
自分もLora作って見たいと考えてます。
コメントありがとう LoRAの作成時間とは関係ないようです
いつもZchanを使って頂きありがとうございます。
Zchanは現状の画像生成AIでは再現難易度の高いパーツを組み込んでいるので、細かいパーツに関してはあまり気にしないほうが良いかもしれません。
もしZchanを細部まで完全に再現できるようになったら、それは生成AIがアニメや漫画といった産業の現場で十分に実用できる水準に達したといえるでしょう。
ありがとうございます。看板娘としてがんばってもらっています。
SD1.5では細かいパーツを再現するのが難しかったですがSDXLでは解像度が上がり頑張れば胸のエンブレムも再現できそうだと思っています。単語と画像の関連付け方法の理解も上がってきてもいます。
でもビデオメモリー不足もあり検証が進まないんです😢
いつも楽しく拝見しております。今回も勉強になりました。高速化といえば、Zさんはstream diffusionは試されましたか?
コメントありがとう。 StreamDiffusionはおもしろいですよね。でも試していません。高性能GPUが載ったPCが何台もあればいろいろ遊べるのですが・・・
前回の動画で紹介されたStable Diffusion web UI Forgeを使いはじめました。
メモリー不足で大きい画像が出せなかったものがForgeで出せるようになったのがよかったですね。
動画と関係ない質問なのですが、、SDXLとSD1.5ではLoraの併用はできない考えで正しいでしょうか。
コメントありがとう。 LoRAは別物です。 さらに学習元のベースモデルに依ってcheckpointとの相性があります 情報を正しく記録しておかないと使い方がわからなくなります