顔がきれいにできないんだけど?【Stable Diffusion web UI Hires. fix】

แชร์
ฝัง
  • เผยแพร่เมื่อ 23 ม.ค. 2025

ความคิดเห็น • 92

  • @メロンぱんだ-e2s
    @メロンぱんだ-e2s ปีที่แล้ว +3

    高画質化するソフトとかそういうのも大事だけど、基本中の基本である、こういう解説が欲しかったです!
    Stable diffusionを使おうとしてるひとがまず一番初めに見るべき解説課と思います!

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว

      ありがとう! ざっくりでも仕組みがわかる動画を作っていきたいと思っています。

  • @tora8683
    @tora8683 ปีที่แล้ว +5

    ちょうどこの問題にぶつかったので有難いです😭

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว +1

      パラメーターがありすぎて最初は何が何だかわからないですよね。

  • @yoriichi1502
    @yoriichi1502 ปีที่แล้ว +1

    初心者ですが動画見るような美しい絵が出てこず、ぶさいくばっかりでてくるので困ってました。ありがとうございます。

  • @hikari2486
    @hikari2486 ปีที่แล้ว +1

    Hires. fixをいじり始めた所なので内容がしっかり把握できました。ありがとうございます。

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว

      では これからですね プロンプトで悩みましょう

  • @とみー-n1r
    @とみー-n1r ปีที่แล้ว +4

    生成スピードの速さにまず驚かされました!

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว +1

      だんだんあたらしいグラボが ほしくな~る ほしくな~る

  • @hitokageking
    @hitokageking ปีที่แล้ว +4

    しりたかったものがここにありました。ありがとうございます。

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว

      パラメーター多すぎですよね

  • @yukizokin
    @yukizokin ปีที่แล้ว +1

    いつも丁度試しているところが紹介されてラッキーです。ありがとうございます。

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว

      コメントありがとう

  • @edm5168
    @edm5168 ปีที่แล้ว +3

    毎回ほんまに勉強になります!!これ見ながら生成すると、ほんとにいい感じに仕上がるんですよねぇ。感謝してます!!!

  • @dejiru123
    @dejiru123 ปีที่แล้ว +4

    ラテントはそういうことだったんですね。意味知らずに感覚で使っているので解説がすごくありがたいです。
    普段2倍を2回とか重ねがけしてるので、最初の2倍でラテントにして、次の2倍で下の方のアップスケーラーにしてみるなど試してみます。

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว +1

      2倍程度にしておかないと お化けが良く出てきますね

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว

      @@momochi9790 コメントありがとう

  • @Darkness-rs4os
    @Darkness-rs4os ปีที่แล้ว +2

    プロンプト以前にそんな仕様だったとは勉強になります

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว

      プロンプトが悪いと思っちゃいますよね。プロンプトの勉強をするきっかけになるけど、きれいに出ず挫折しちゃう人が多いと思います。

  • @かむさき
    @かむさき ปีที่แล้ว +1

    これです!なんで出ないんだ・・・よく見かけるサムネイルのクオリティにならないのは。また一歩前進できたような気がします。
    ありがとうございます。

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว

      おめでとう、みんな通る道です。

  • @-Occhi-
    @-Occhi- ปีที่แล้ว +1

    めちゃ分かりやすいです

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว +1

      コメントありがとう

  • @hirosiespacio9930
    @hirosiespacio9930 ปีที่แล้ว +1

    何で解像度を上げると人物が増えるのか、良くわかった。
    好みはVGAです。これだと結構良い感じ。

  • @コンきつね-s9p
    @コンきつね-s9p ปีที่แล้ว +7

    VRAM容量が4GBだから小さい画像しか生成できないし、
    顔のきれいな画像なんて無理だろうな……と思っていました。
    ありがとうございました!

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว +2

      新しいグラボが欲しくなるパターンですね

  • @トミキュー
    @トミキュー ปีที่แล้ว +2

    初心者向けの解説ありがとうございます。
    何をどう調整すればいいのか色々試していたけど確信が持てなかったので
    とても助かりました。

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว

      次はプロンプトに集中ですね

  • @waku653ryft5
    @waku653ryft5 ปีที่แล้ว +1

    滅茶苦茶参考になりました。
    画像生成途中まですごいいい感じだったのに、最後いきなりドン!で違うのになってあれ?ってなることが多かったんですが、アップスケーラーのモデルが原因だったんですね。デフォのlatentのままにしてました。いろいろ試してみたいと思います。

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว

      アップスケーラーもAIを使うやつはDenoisingを0.05単位で下げて微調整すると良いですよ 時間かかりますけど

  • @Matsuri-talk-ch
    @Matsuri-talk-ch ปีที่แล้ว +1

    なるほど!すごい!

  • @HzHz-fh6zq
    @HzHz-fh6zq ปีที่แล้ว +1

    助かりました!ありがとうございます

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว

      コメントありがとう

  • @りんごバター-j8m
    @りんごバター-j8m ปีที่แล้ว +1

    これを知りたかった。インストールしたら一番最初に見たい動画

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว

      コメントありがとう

  • @アイガークーパー
    @アイガークーパー ปีที่แล้ว +1

    初心者の壁、、、細かい箇所の表現。わかりやすい動画で、参考になりました。
    とりあえず、画像作成は出来きるようになった初心者ですが、高確率で顔が崩れてしまいます。
    崩れてしまった顔の修正に、unpromptedの様な?キーワードの修正方法がある?みたいですが、
    もしくは、他の方法でも良いので顔のみの修正方法がありましたら是非テーマとして取り上げて下さい。
    よろしくお願い申し上げます。

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว +1

      私が分からなかった所を思い出しながら作っています。顔の修正したいですよね。そろそろその段階の説明ができそうです。

  • @saikozuan
    @saikozuan ปีที่แล้ว +4

    引きの絵が欲しいのでマジで困ってました。ありがとうございます。
    ただ、うちの3050では限界がありました。

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว +2

      メモリーの大きなグラボが欲しくなるポイントです

    • @saikozuan
      @saikozuan ปีที่แล้ว +1

      @@SignalFlagZ Amazonで3060 12GBを買ってしまいました。これ以上は無理です…

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว +1

      @@saikozuan おめでとうございます 十分だと思います

  • @谷章悟
    @谷章悟 ปีที่แล้ว +1

    この機能はweb-uiのloraと類似した機能と理解してればよいですか?

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว

      Stable Diffusionの特性ですね。LoRAとは関係ないです。

  • @Takumi_a.k.a_NIKE
    @Takumi_a.k.a_NIKE ปีที่แล้ว +1

    Hires. fix毎度使ってるんですが、どうもいわゆるマスピ顔になってしまうんですよね。
    何か改善点ってありますかね。

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว

      手軽に整った絵を出せるのとトレードオフですね。SD基本モデルへ戻るか自分で学習させるくらいしか根本的に解決しないかも。

  • @nekocat6655
    @nekocat6655 ปีที่แล้ว +1

    この動画すげえ

  • @pIayersplayer
    @pIayersplayer ปีที่แล้ว +2

    これ使うと何故か急に生成が止まってしまうんですが、どうすればいいのですかね、、?、

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว

      ビデオメモリー不足の可能性が高いでしょう。コンソールに出るメッセージを解読しましょう。この場合の回避方法は今後紹介する予定です。

  • @user-go7mq2fe9p
    @user-go7mq2fe9p ปีที่แล้ว +1

    AddNet Weight AやBはどこで設定できますか?

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว

      SD web UIではプロンプトに組み込まれました
      th-cam.com/video/omOlqAsBKfE/w-d-xo.html

  • @extphas
    @extphas ปีที่แล้ว +2

    multiDiffusionも取り上げてほしい

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว

      img2imgネタもやってないので当分先になりそうです。 ほとんど使ってませんが明確なメリットをあまり感じてないんですよね。

    • @NyanBuzz
      @NyanBuzz ปีที่แล้ว +1

      使い方としてはハーレム画像作るときとか、中央に人物がいて左右にクソでかい羽を作るときとかにRegion指定で中央だけに人のプロンプトを組んであげるとかですね。

    • @NyanBuzz
      @NyanBuzz ปีที่แล้ว +1

      いまほかの動画も見てきたんですけど、Regionで画像の左右を区切ってそれぞれのRegionのプロンプトにa dogとa catを入れることで両方の特徴を混ぜないこともできますね。

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว +1

      ControlNetもですが出したいイメージが固まっている人向けだと感じています。絵を書ける人こそ使う機能ですね。絵の改善手段になるので改善したいものが何だかわからないと使えないと思っています。

  • @Blendarling
    @Blendarling ปีที่แล้ว +1

    この機能は追加導入が必要なのでは!?…VRAMの使用量がわからないので、タスクマネージャーか、GPU-Zを使ってもらえませんか?VRAM12GBでは、3倍程度が限界でしょうか?

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว +1

      100%に貼り付く場合が多くて良い可視化方法がわからないんです。12GBで4倍は成功していません。その前に画像が崩壊する場合が多すぎて調整が難しいですね。

    • @Blendarling
      @Blendarling ปีที่แล้ว +1

      SDのUI上に、表示してくれるようになるといいですね!・・・アップスケーラーを二回に分けて掛ければ、VRAM不足でもなんとかなりそうです!🤔

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว +1

      @@Blendarling 他の方のコメントにもありますが、VRAM節約は紹介する予定です。

  • @sanpen9709
    @sanpen9709 ปีที่แล้ว +1

    5:12 急に偉人っぽい人たちが出てきて笑いました

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว

      AIの発想力は人を超えています😄

  • @ふぁんとむ-e2z
    @ふぁんとむ-e2z ปีที่แล้ว +2

    5:02 あ~やはり画像を大きくすると破綻するものなんですね
    512x512でそれらしいものが上がってきたので1280x720のHDDサイズに上げると途端にミュータントや肉塊を吐き出すようになってネガティブプロンプトが足りないのかとあれこれ試したのですが、芳しく無く途方に暮れていました

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว +1

      出力時間もかかるし何がポイントか気づくまでが大変ですよね

    • @ふぁんとむ-e2z
      @ふぁんとむ-e2z ปีที่แล้ว +2

      @@SignalFlagZ AIと言うので作るたびに制度が上がるのかとも思ってましたが、Stable Diffusionそのものはすでに学習済みの人工無能でガチャを回し続けるものだと1週間経ってやっと気が付きました^^;

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว +1

      @@ふぁんとむ-e2z プロンプトでガチャの回数をどうやって減らせるかが次のポイントです。でもあっという間にもっと賢くなってしまうかもしれませんよ。

  • @umechans_retroactive
    @umechans_retroactive ปีที่แล้ว +1

    解説わかりやすいですね。しゃべりも軽快で深夜ラジオ聴いてるみたいです。ch登録します。

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว

      コメントありがとうございます。

  • @水雲-e6k
    @水雲-e6k ปีที่แล้ว +1

    まさしく、ですね!よくぶち当たる部分ばかりで「あるあるwww」しちゃいますね
    そしてその後はハイレゾ沼に陥る所まで容易に想像できます、故に性能の高いグラボやパーツでトライアンドエラーの回数を稼ぎたくなり、ハード物欲が出てくる所までが様式美ですねw

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว

      演算速度とVRAMがもっと欲しい!

  • @旭軽工業
    @旭軽工業 ปีที่แล้ว +1

    グラボがあると速いなぁ。
    12世代のcore i5 でもcpuだと遅い。

  • @aa-zx8rl
    @aa-zx8rl ปีที่แล้ว +1

  • @r.yashima
    @r.yashima ปีที่แล้ว +1

    休日をフルに使ってwebUIの導入からTrain Toolsのインスコ、モデルの収集終わらせました!
    Signal Flag "Z"様の動画のおかげでやっとスタートラインに立つことができました!!
    ありがとうございます!!!
    これからも参考にさせていただきます:-)

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว

      いろいろな可能性を感じましょう!

  • @ぷらすとぷれすと
    @ぷらすとぷれすと ปีที่แล้ว +1

    大変参考になる動画ありがとうございます。
    ジェネレートめちゃくちゃ速いですね、グラボは4070TIでしょうか?

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว

      4070TIです。速いとストレス減りますね。 ビデオは時々早回ししてるかも。

  • @NyanBuzz
    @NyanBuzz ปีที่แล้ว +2

    自前の設定(Tiled Diffusion)で割と満足してるからUpscaleとかの復習のつもりで見てたんだけど「womanにすると服を脱ぎだすからです」で笑ってしまったw

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว +1

      あるある ですよね・・・

  • @matty_mroz
    @matty_mroz ปีที่แล้ว +2

    Hello, I have a question: At the moment, theoretically it is possible to improve images such as comic book pages, manga or manhwa to obtain better quality, greater detail, coloring, improved line art or giving style to original image panels. For example, we have hundreds of images, each containing different scenes, characters, as well as dialogue and thought captions. Using models that are not limited to a specific fragment of reality, we would be able to improve the original, add quality to it and turn a few color stains into a masterpiece. Most importantly, is something like this possible without entering commands for each generated image? Do current models cope with such huge collections, and can they perform basic tasks such as leaving captions unchanged and changing only the artistic part of the panel to a style selected by us?
    In short, is it currently possible to improve images to make them more detailed, dynamic and more colorful than the original?

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว +2

      Current AI does not distinguish between individual characters. Hair color, skin color, etc. will be different from frame to frame. ControlNet would be closer to what you want.

  • @PlushLove171
    @PlushLove171 ปีที่แล้ว +1

    いろいろ種類がありすぎて何を使ったらいいかわからない。

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว

      ゲーミングPCをお持ちでないならMidjourneyあたりでお試しが良いのでは。私は使ったことありませんが・・・

  • @youser7776
    @youser7776 ปีที่แล้ว +1

    なんてこった・・・アップされてる画像が巨大だからどんなモンスタービデオカード使ってるんだと思ったらこう言うからくりだったのね

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว +1

      コメントありがとう

  • @yowayo322
    @yowayo322 ปีที่แล้ว +1

    なあるほど、です サンキュー

  • @kinoko_no_kami
    @kinoko_no_kami ปีที่แล้ว +1

    SUGEEEEEEE!!!!

  • @egashira7532
    @egashira7532 ปีที่แล้ว +1

    茶番が長い

    • @SignalFlagZ
      @SignalFlagZ  ปีที่แล้ว

      茶番の方が重要なんです