- 250
- 191 038
Hamster_Poodle
Japan
เข้าร่วมเมื่อ 15 ก.ค. 2016
Hamster
→ YabaiHamster
→ sophisticated_hamster
→ YabaiHamster
→ sophisticated_hamster
【FluxLora】を爆速作成! Runpodでワンクリック実行 30分で1500step
CloudGPUで作成することの一番の利点はローカルPCが重くならないことやにゃ。
Patreon記事 → www.patreon.com/posts/runpoddefluxlora-112280738
ベースとなったnote記事はこちら → note.com/198619891990/n/n6b7acb72b406
作品例 → www.patreon.com/HamsterPoodle
hamster SNS
→ YabaiHamster
→ sophisticated_hamster
音声データ
・Music is VFR 様
・魔王魂 様
・OtoLogic 様
・VoiceVox ずんだもん
Patreon記事 → www.patreon.com/posts/runpoddefluxlora-112280738
ベースとなったnote記事はこちら → note.com/198619891990/n/n6b7acb72b406
作品例 → www.patreon.com/HamsterPoodle
hamster SNS
→ YabaiHamster
→ sophisticated_hamster
音声データ
・Music is VFR 様
・魔王魂 様
・OtoLogic 様
・VoiceVox ずんだもん
มุมมอง: 296
วีดีโอ
13. 複数枚の画像を制御! queue, list, batch を理解しよう! ComfyUI
มุมมอง 650หลายเดือนก่อน
今回の無料workflow → www.patreon.com/posts/comfyui-prompts-110225412 SUPER Good Image Crop → www.patreon.com/posts/super-good-image-102900170 作品例 → www.patreon.com/HamsterPoodle hamster SNS → YabaiHamster → sophisticated_hamster 音声データ ・Music is VFR 様 ・魔王魂 様 ・OtoLogic 様 ・VoiceVox ずんだもん
ep.3 企業側から見たAIへの視点 クリエイションの変化と未来予想 ~ズーパーズース様~
มุมมอง 150หลายเดือนก่อน
作品例 → www.patreon.com/HamsterPoodle hamster SNS → YabaiHamster → sophisticated_hamster 音声データ ・Music is VFR 様 ・魔王魂 様 ・OtoLogic 様 ・VoiceVox ずんだもん
ep.2 『イラスト使い』が最近ComfyUIを始めてみて… 生成AIへの世間の風当たり
มุมมอง 246หลายเดือนก่อน
作品例 → www.patreon.com/HamsterPoodle hamster SNS → YabaiHamster → sophisticated_hamster 音声データ ・Music is VFR 様 ・魔王魂 様 ・OtoLogic 様 ・VoiceVox ずんだもん
ep.1 初心者向けのUIとは!?儲けようブームの裏側
มุมมอง 305หลายเดือนก่อน
作品例 → www.patreon.com/HamsterPoodle hamster SNS → YabaiHamster → sophisticated_hamster 音声データ ・Music is VFR 様 ・魔王魂 様 ・OtoLogic 様 ・VoiceVox ずんだもん
11. AnimateDiffの結論 ComfyUI StableDiffusion
มุมมอง 1.3Kหลายเดือนก่อน
必要なことはここにまとめました。➡ www.patreon.com/posts/110468506 そもそもAnimateDiffとは? → th-cam.com/video/JBWd1uiLXTg/w-d-xo.html CloudGPU VastAIの使い方 → th-cam.com/video/uWhkETkj27I/w-d-xo.htmlsi=5EuH-qhDPCrAXV1n ControlNetキーフレームの説明 → th-cam.com/video/UD5vlvW6ELQ/w-d-xo.html 作品例 → www.patreon.com/HamsterPoodle hamster SNS → YabaiHamster → sophisticated_hamster 0:00 Creations 0:35 今回の趣旨 1:...
【FLUX】徹底検証まとめ 最適な設定とは!? ComfyUI
มุมมอง 2.9Kหลายเดือนก่อน
workflow → www.patreon.com/posts/110014620/ nf4を試す人はComfyUIを最新にアプデしましょう! vae, clip → comfyanonymous.github.io/ComfyUI_examples/flux/ flux-fp8 → huggingface.co/Kijai/flux-fp8/tree/main flux1-dev-bnb-nf4(-v2) → huggingface.co/lllyasviel/flux1-dev-bnb-nf4/blob/main/flux1-dev-bnb-nf4.safetensors Tileアップスケールについて → th-cam.com/video/5vVW5BhH9VM/w-d-xo.html 作品例 → www.patreon.com/HamsterPoodle hamster S...
12. inpaintの基本が丸分かり!下処理から完成までのワークフロー ComfyUI StableDiffusion
มุมมอง 293หลายเดือนก่อน
パターン1と2が推奨です。Animatediffでは4をよく使います。3はtrash! workflow → www.patreon.com/posts/109606197 作品例 → www.patreon.com/HamsterPoodle hamster SNS → YabaiHamster 音声データ ・Music is VFR 様 ・魔王魂 様 ・OtoLogic 様 ・VoiceVox ずんだもん
【ControlNet++】SDXL-union の万能モデルを使おう! ComfyUI StableDiffusion
มุมมอง 2.3Kหลายเดือนก่อน
今回はガチで手探り。ちょっとバグがあるようで、上手く行ったりいかなかったりするっぽい。8月の中旬にアプデが来るので治っていて欲しい。 Workflow → www.patreon.com/posts/109663503 大きなワークフローについて → th-cam.com/video/AjGJglq_RSc/w-d-xo.html 作品例 → www.patreon.com/HamsterPoodle hamster SNS → YabaiHamster → sophisticated_hamster 音声データ ・Music is VFR 様 ・魔王魂 様 ・OtoLogic 様 ・VoiceVox ずんだもん
【2024年7月】初心者OK!一瞬で上級者になれるワークフローで好きな顔のグラビアを作ろう! ComfyUI Stable Diffusion
มุมมอง 3.1K2 หลายเดือนก่อน
【2024年7月】初心者OK!一瞬で上級者になれるワークフローで好きな顔のグラビアを作ろう! ComfyUI Stable Diffusion
【IC-Light】AnimateDiffを使って光を動かそう! feat. ワークフローの作り方 ComfyUI Stable Diffusion
มุมมอง 2352 หลายเดือนก่อน
【IC-Light】AnimateDiffを使って光を動かそう! feat. ワークフローの作り方 ComfyUI Stable Diffusion
ステッカーを作ろう!StickerYou のワークフローの解説 ComfyUI StableDiffusion
มุมมอง 3763 หลายเดือนก่อน
ステッカーを作ろう!StickerYou のワークフローの解説 ComfyUI StableDiffusion
【SD3】がCivitAIでBAN!? 代わりに使える便利サイトの紹介 ComfyUI StableDiffusion
มุมมอง 4003 หลายเดือนก่อน
【SD3】がCivitAIでBAN!? 代わりに使える便利サイトの紹介 ComfyUI StableDiffusion
特殊なTileを用いた画像のアップスケールをする方法 ComfyUI StableDiffusion
มุมมอง 1K7 หลายเดือนก่อน
特殊なTileを用いた画像のアップスケールをする方法 ComfyUI StableDiffusion
【Xで話題】完全自動でAI動画の目を瞬きさせる ComfyUI StableVideoDiffusion
มุมมอง 2.7K7 หลายเดือนก่อน
【Xで話題】完全自動でAI動画の目を瞬きさせる ComfyUI StableVideoDiffusion
10. AnimateDiffusionのGen2を解説! ComfyUI StableDiffusion
มุมมอง 2.2K8 หลายเดือนก่อน
10. AnimateDiffusionのGen2を解説! ComfyUI StableDiffusion
【2024年1月】初心者の内に知る!ワンクリックでComfyUI導入から役立つ機能まで OOM対策, Latentの保存, Refiner StableDiffusion
มุมมอง 1.8K9 หลายเดือนก่อน
【2024年1月】初心者の内に知る!ワンクリックでComfyUI導入から役立つ機能まで OOM対策, Latentの保存, Refiner StableDiffusion
9. 【ControlNet ACN ②】AIにキーフレームを打つ SparseCtrlでロゴモーフィング! ComfyUI StableDiffusion
มุมมอง 8209 หลายเดือนก่อน
9. 【ControlNet ACN ②】AIにキーフレームを打つ SparseCtrlでロゴモーフィング! ComfyUI StableDiffusion
8.【ControlNet ACN ①】理想の効果に近づけよう!ControlNetの制御について ComfyUI Stable Diffusion
มุมมอง 8899 หลายเดือนก่อน
8.【ControlNet ACN ①】理想の効果に近づけよう!ControlNetの制御について ComfyUI Stable Diffusion
AIにキーフレームを打つ! AeユーザーがAIに興味を持てる動画 ComfyUI AnimateDiff Stable Diffusion AfterEffects
มุมมอง 3779 หลายเดือนก่อน
AIにキーフレームを打つ! AeユーザーがAIに興味を持てる動画 ComfyUI AnimateDiff Stable Diffusion AfterEffects
多分これが一番早いと思います。 Xで話題の顔入れ替えを解説! ComfyUI ReActor Stable Diffusion FaceSwap
มุมมอง 19K9 หลายเดือนก่อน
多分これが一番早いと思います。 Xで話題の顔入れ替えを解説! ComfyUI ReActor Stable Diffusion FaceSwap
7. 【超発展編】現実にアニメキャラを召喚! 動画で人物を入れ替えて踊らせる方法 ComfyUI AnimateDiffusion Stable Diffusion
มุมมอง 1.3K10 หลายเดือนก่อน
7. 【超発展編】現実にアニメキャラを召喚! 動画で人物を入れ替えて踊らせる方法 ComfyUI AnimateDiffusion Stable Diffusion
リアルタイムでお絵かき!? SDXL Turbo ComfyUI Stable Diffusion
มุมมอง 41610 หลายเดือนก่อน
リアルタイムでお絵かき!? SDXL Turbo ComfyUI Stable Diffusion
6.【基本編】キャラクターが踊る!? AnimateDiffusionとIPAdapterの使い方 ComfyUI Stable Diffusion
มุมมอง 1.5K10 หลายเดือนก่อน
6.【基本編】キャラクターが踊る!? AnimateDiffusionとIPAdapterの使い方 ComfyUI Stable Diffusion
StableVideoDiffusionで使える便利なカスタムノードのご紹介! ComfyUI SVD
มุมมอง 1.1K10 หลายเดือนก่อน
StableVideoDiffusionで使える便利なカスタムノードのご紹介! ComfyUI SVD
宿泊経験者です。 一応、ホテルからレストランのへの連絡路はありました。 グーグルマップではまだ廃墟の写真ですが、先日近くに行ってみたら更地になってましたね。 輩に穢されるのであれば綺麗さっぱりなくなった方がいいですね。
すみませんが、この動画の事はもう出来ないのでしょうか?もうNO,124 reaclorありません。他の二つはありました。だからReActor-Fasl Face Swapが検索してもてできません。 その他に顔を差し替える方法はありませんか?教えて下さい。宜しくお願い致します。
ReActorノード自体が更新されて新しくなっておりますので、名称変更があるかと思います。しかし基本構造は同じなので、ReActorノードの中身を探してみてください。 詳しくは後日全部言います。2日以内に動画を出しますので、ご確認いただければ幸いです。
10年くらい前にここの脇でバス釣りしてたら持ち主だか入るのやめてといわれました😮
試してみましたがcropped imageはどうしても顔半分、あごまでしか表示されずうまくいきません何か解決方法はありませんでしょうか?お手数ですが。。
こちらをダウンロードしてみて下さい。その他にも私のPatreonには様々なツールを用意していますので、是非フォローをお願いします! また、その問題はpaddingの幅が原因です。1とか2とか3とか数字をいれると切り取り幅を調節できます。これはどのノードを使っても同じです、マスクに対して余白をどう取るかという観点です。 www.patreon.com/posts/facepicker-108038337
これの応用で実写画像背景を崩さずAI人物合成できないものでしょうか?
その場合は人物だけをインペイントで変化させるという処理になります。もしくは、周りの背景のdenoiseを0.2、人物をdenoise0.5のように別の値を用いたi2iが可能です。
@@hamster_poodleご返信ありがとうございます。 どちらも元になる画像、仮合成がいりますよね。 これを背景画像のみで背景に合わせたloraを設定したAI人物の合成画像が作れるといいのですが^^ 重ねてありがとうございました。
その処理をComfyUI上で行えば良いのではないでしょうか?仮合成やマスキングをです。背景と人物もこの動画のように0から作成可能です。 この動画で正に行ったことですが、LatentをStepの途中で合成することで完成形においては自然に描き上げることができます。 AIで描き上がった完成画像自体を合成することはPhotoshopと変わりません。せっかくAIを利用するならStep途中のLatent状態で合成することをオススメします。
RTX6000adaでやったら1時間で3500ステップいきました笑
いつも有益な情報ありがたいです! 質問なのですが… たまに写真によってはノイズが出てしまう時があります。何か解決法等ありますでしょうか?…
インプットの画質を上げるしかないですね〜 フェイスモデルの作成も同じReActorのカスタムボードに含まれてますので、何枚かの画像でfaceモデルを作成することも試してみてください。 またRestoreFaceモデルをオンにして使用することもできるのですが、その場合は顔が全然違う人になることに注意してください。AIで作った顔に入れ替える時にはおすすめです。
listとbatchのノードの役割がめちゃくちゃよくわかりました!! listは1行1入力なんだろうなとぼんやり理解してワークフローを使っていたのですが、 Strings to Listを使うことで行を分けたテキストがリストとして認識されているとわかりました。 うおおおすげえ---と動画を拝見しながら感動しました!! 非常にわかりやすかったです、ありがとうございます!!! 最後のPrompt Scheduleだけ難易度が高く涙目です…2時間くらい試してもわからず沼にハマってしまいました とても興味があるので生成できるようになりたいのですが、 こちらのやり方について解説した別動画はありますでしょうか? 試した方法としては、 String List to StringのうしろのU-NAI Get TextをPrompt Scheduleにつなぎ、current_frameにInt Literalで1をつなぎました。その後にKSample→VAE Decode→Video Combineとして生成しました。 CRSDXL Aspect RatioのBatch_sizeを31にしました。 ハムスターさんの例で出されていたじっくり変わる生成結果を出せずでした また、まだわかっていない段階の質問で間違っていたら恐縮なのですが、 cat→dog→hamsterを、さらに増やして cat→dog→hamster→camel→alligator→frogと変化させたい場合は、 Float RangeとFloat to StringとFormat Stringの数値を変更するのでしょうか? ここらへんのFloatやFormat Stringについて検索しても表記の方法がよくわからず、 もし別動画で解説されていましたら、教えて頂けると非常にありがたいです! 長くなってしまいすみません! もしご回答いただけましたらうれしく思います!!
こんちゃ~! ご意見頂いた方法で実行するには [batch prompt schedule] を使用します。この方法では batch_size を120とかにして1回のqueueで一気に処理できます。 しかし、Fluxのような重いモデルを一気に処理できないので、1f毎に生成して後で繋げる方が便利かと思います。 1f毎に生成するためにqueueを分割します。 端的にその例を回答します! batchサイズは1にします。[Prompt Schedule]の current frame にseedノードを付けます。seedの値を0にして、control after generate を increment にします。 この状態でqueueを必要な回数押します。(ex. 一気に押す為に、queueの右にある🔽マークを押してbatch count を増やすとqueueを1回押すだけで複数回押してくれます。) 1枚ずつ1f毎に生成されます。なのでVideoCombineは後で別で使用します。 queueとlistとbatchの説明回だったのにqueueについて説明が抜けてたかもですね~m(_ _)m またロジック部分についてはプログラミング的な頭の体操ですので、ChatGPTの方が意図を汲んで説明してくれると思います! [Float Range] の役割は動画内で説明しています。入力するlist数とstep数を用いて計算してみましょう。 ( ex. 6つのlistを入力して30fで変化させる場合は、 0→30→60→90→120→150 となるので、stopの値を150にする。limitはそれ以上の任意の数に設定。 [Prompt Schedule] の max_frame も150にする。 )
@hamster_poodle とても詳細に教えて頂きありがとうございます!! 頂いた情報をもとに試行錯誤して試してみました。 少しずつ変化しながら、生成するところまではいけたのですが、 生成される画像がどうしても揺らいでしまうところでなかなかつまづいています… 動画の14:40からのハムスターさんのサンプル連番画像は、 キャラの位置や物体がほとんど固定されているように見えるのですが、 ControlNetのOpenPoseを入れるなどしているのでしょうか?? あるいはAnimateDiffを活用しているのかなど考えたのですが、 どうしても再現までたどりつきませんでした😭 引き続き何度かトライしてみようと思います…!
@@星森香 seedを固定してください! また、Poseは人型なので動物には使いません!
@@hamster_poodle 完ぺきにできました!!!ありがとうございます🙏🙏😭😭
最近↓下記動画を見たんですが、第1フレームと最終フレームを指定できるLuma DreamMachineなんかの動画生成にかけて、植物の成長動画に使えそうだと思いました。 1littlecoderチャンネル Flux Videos to create Insane UGCs!!! 20240905
こういうネタって、何から思い付くんですか?XやDiscordなどSNSを日常的に巡回することで思い付くんですかね?🤔
いつもご視聴ありがとうございます! 皆さんからの質問に答える際に思い付きます。理解の周知が足りてないことを動画にします。つまり今回はComfyUIではロジックを書けるということが主旨です。 "ネタ"という表現をされましたが、まさにエクステンションやカスタムノードのような"ネタ"の存在を尋ねてくる方が多いです。 ComfyUIではプログラミング的な処理を視覚的にいじれることが強みです。他のUIのようにエクステンション化する必要がありません。 プログラミング作業なのか、AIを用いたプラグインなのかを判別できないとナンセンスな疑問にてスタックしてしまいます。 それを解消していきたいです。
@@hamster_poodle なるほどです~☺
Cooperate, can I get your email?
on my youtube profile
最初のロードチェックポイントで止まってしまうのですが、何が原因と思われますか?😖 初心者で何も分からないので、教えていただけると嬉しいです。
自分の使うチェックポイントモデルを選択できていないカモ🦆 持ってますか?持ってなかったらインストールして選択までしてみてください〜
@@hamster_poodle 返信ありがとうございます!動画の手順のほかにインストールが必要ですか?
@@こうへい-h6c 必要ないです!モデルを選んであげて下さい~
FANZAのクオリティ上げる試みをしてみたいと思いました。
この組み合わせ良かった◎
こういう知識のある方同士のお喋り企画、めっちゃ情報量あって大変ありがたいです🙏
最高です⭐️
AIでここまで製作できるのは素晴らしい ぜひ、応用してみたい
そんなんあるん?
これ 花 なのか ポテトなのかわかんない
マック今さっき食べたwww
そんなポテトがあったらいいなぁ(´・ω・`)ポテトゥ(「🍟・ω・)「🍟
ポテトみたい いや、ポテトなのか?
もうマックたべたくなくなった
色々な作業工程を見て「メンドクサっ!」と思ってしまう自分は、素直にRunwayとかの有料サービスに課金すべきなのでしょうねぇ~。
やれること/やりたいことの趣旨が全く違うので、まずは実際にRunwayを使うことをオススメします!そしてこの動画との違いを感じてみましょう。 どんなやり方でも、少なくとも“音”は付いてないんですよね。なので最終的に編集は必要になります。 その為、世の中に出そうとするとどんな手法でも手間が掛かると思います。
サイクリングで牛久の方に来てとても印象に残ってます。 今はもう解体されたみたいです。 ありがとうございます。
感謝です!
ヤンキーさん。(笑) ドローンだと、人が入れない場所(危険)まで撮れるのですね。 他の廃墟も行って見て下さい。
Mac Userに関して、AVX2非対応のプロセッサだとComfyUI-N-NodesをインストールしてもLoad videoやSave Videoがリストされないため、本動画の「ComfyUI-VideoHelperSuite」を使ったinput/outputの情報は本当に助かりました しかし、ComfyUIにffmpegのpathを正しく通してもなぜかffmpegを認識してくれず、animation系nodeのfpsを30にして何とか似非動画を作成しています ただ、当然ですが画像形式なので動画として保存できないのが難点です
それはmac以外でも起きうる問題です。 pinokioというアプリを使用していますでしょうか? pinokioではワンクリックでバグの無いComfyUIをインストールできます。独立したenv環境が問題の解決に繋がる可能性が高いです。 ぜひ導入して見てください。
@@hamster_poodle pinokioは開発者が少しおかしいのでちょっと抵抗はありますが、ffmpge問題が解決するなら導入するのもアリかなと思っています
カクテルピーナッツさんですか? どうでしょう、AIの検証とピノキオの宣伝をよくしてる印象ですね。 開発自体はチームで行っており、discordに行くと全容が見れるかなと思います。 ピノキオはComfyUI以外のアプリもありますので、最新の技術を色々試せる場かなと思います。
いつも見ています。 comfuyuiのアップスケールがわからないです。 解説してもらえると嬉しいです
ok
jsonファイルはどうすれば貰うことができますか?また、Beginer.jsonというファイルは動画でドラックアンドドロップしたjsonファイルとは別物ですか? 動画を見ながら一緒に作業をしていたのですが、わからなくなってしまいました。教えて頂ければ幸いです。
はじめまして~!そうですね、この動画でドラック&ドロップしたjsonファイルは Beginer.json と別物です。 今回の企画は2本立てでお送りしております。この動画では初心者の基本を学ぶ為に、 Beginer.json を用いて最低限必要なカスタムノードを動画の中で紹介している手順を用いてインストールすることができます。 実際にドラッグ&ドロップした大きなワークフローは動画の後半で詳しく説明しており、それはPatreonで入手と視聴が可能です。 大きなワークフロー自体は全然初心者向けではないので、この動画ではあらかじめComfyUIの基本を学んで貰いたいと考えています。
自分はデフォのapply controlnet(advanced)からart-ventureのcontrolnet preprocessorを通して使ってますが全部いい感じにunion使えてます!
自分もそう思ってて、input画像がposeならposeだとモデルが勝手に判断をしてくれると思っていたのですが、同一モデルだとしてもモードを切り替えて使用するのが正しいはずだと思うんですよね。 確かにpose以外に着目すると大丈夫そうなのですが、poseを判断させるには今回の動画の方法になりそうです、。
勉強になります。余談も面白いです🐹
ControlNet++の台頭により、モデルを切り替えることなく1つだけを使用して動作させることが出来るようになりました。また、一瞬で上級者になれるワークフローをお配りしています。概要欄からご覧ください。
2024年7月版のComfyUI導入はワンクリックで全て自動で可能になっています。また、一瞬で上級者になれるワークフローをお配りしています。概要欄からご覧ください。
分かりやすい解説ありがとうございます!
グループマップで使ってるカスタムノードはこれですか? yolain/ComfyUI-Easy-Use
そうですね! ワークフローに組み込まれていると思うので、右クリックor新UIのバーにあるボタンで表示できると思います。
@@hamster_poodle 自分のワークフローに組み込みたかったので助かります! rgthreeのGroup Bypasser使ってましたが常時画面最前部に固定されてないのが不便でしたので、、、 新UI使い勝手はいかがですか? バグ等あったら嫌だったので見送ってたんですよねー
ボタンの位置が変わっただけと考えて良いと思います♪ なので既存の機能自体は特に更新されていませんので、逆に言えばその部分に関してのバグは無いはずです。 次回の動画で紹介します。
@@hamster_poodle では早速アプデしてきます! Comfyの解説チャンネルがもともと少ない中、更にニッチなとこで発信して頂いてるのめちゃくちゃ助かってます。 日本語解説ないから英語圏の動画で勉強してるんですがちょくちょくハムスターさんがコメントしてるの見かけるので自分のニーズに刺さりまくってますw いつもありがとうございます!
そういうことをもろもろ考えるとconfyuiの指南を人にできるハムスターさんはかなり厳選された少数派になるんでしょうね...
ハムスタープードルさんの動画は必ず視聴しますね... しかし、それにしてもconfyuiは知人は全員脱落してます... そもそもAIに脱落している人の中でなんとかAIイラストを初めてくれた選ばれし知人達なのですが それでも全員がconfyui脱落しています...
PuLID舐めてました... 激似です... 本人です..これ 導入にめちゃくちゃ手こずりましたが... confyuiは世界中のみんながそれぞれ環境違うせいで導入にいつも手間取りますね
むっちゃありがたいです。参考になりました!! ちなみに、CR LORA Stackのclip_weightってどんなパラメータ化知ってたら教えていただけますか?調べても出てこないんですよね・・
こんにちは! 出力結果に全然影響無いんでよく分からないんですよね~ 結局どのパラメーターもpromptと影響度の綱引きをしているので、どっちを重視しますかということだとは思うのですが…
@@hamster_poodle 返信ありがとうございます!IC-LightもjerryWorkflowの改造、楽しかったです~
今チュートリアルを順番にやっています 一つ質問させてください 今回は人物でクロップしていますが、顔のみクロップするのはどうすれば良いですか? このチュートリアルで顔変換した動画を見てみると髪の毛がぶれていて、変更の範囲が大きくとられているようです。 やったこととしては、simple detectorを使ったのですが、うまくいきません SEGSからマスクを作ってpreviewImageをしたのですが動画の場合だと一枚しか出てきません 理想はLoadivideoみたく複数マスクが出てきてほしいです もしよろしければお答えできないですか?
こんにちは! 古いやり方だとdetectorを使用するのですが、最新では他の方法を使用します。 最新の動画をいくつか見てみて下さい。そちらにワークフローも付いております。 顔に関する処理は複数存在しておりますが、いずれにしても新しいものを参考にしてみてください!
@@hamster_poodle ありがとうございます
急に配信終わった
上空からの廃墟撮影って大変なのかなと俺は思ってんけんども?準備とか時間ってかかるのかなって俺は思っとんだよな?
たいありでした! 楽しかったです✨またよろしくお願いします^ ^
🐹🐹🐹🐹🐹🐹🐹🐹🐹🐹🐹🐹
この動画すごっ!って思ったのがきっかけでSVDに挑戦始めましたが、見つからないノードもあってハードル高過ぎました(笑)
自分はPaperSpaceを使用しているのですが、それと今回のVast AIを比べるとどちらがいいと思いますか?
私はそのサービスを未使用ですが、料金表を見たところA6000で$1.89/hour が本当であれば値段が単純に高いかなと思います。
load checkpointにCIVITAIでダウンロードしたモデルを入れるとエラーが吐いてしまいます。
.safetensorですか? ComfyUIの起動にpinokioを使ってみて下さいませ。
参考になる動画ありがとうございます! 下記のようなエラーが出てきてしまうのですが、何が原因ですかね…💦 調べてもわからなくて、、、 下記、エラー↓ Error occurred when executing ReActorFaceSwap: torch.cat(): expected a non-empty list of Tensors File "/content/ComfyUI/execution.py", line 151, in recursive_execute output_data, output_ui = get_output_data(obj, input_data_all) File "/content/ComfyUI/execution.py", line 81, in get_output_data return_values = map_node_over_list(obj, input_data_all, obj.FUNCTION, allow_interrupt=True) File "/content/ComfyUI/execution.py", line 74, in map_node_over_list results.append(getattr(obj, func)(**slice_dict(input_data_all, i))) File "/content/ComfyUI/custom_nodes/comfyui-reactor-node/nodes.py", line 324, in execute result = batched_pil_to_tensor(p.init_images) File "/content/ComfyUI/custom_nodes/comfyui-reactor-node/reactor_utils.py", line 44, in batched_pil_to_tensor return torch.cat([pil_to_tensor(image) for image in images], dim=0)
pinokioというインストーラーを使ってComfyUIを起動してみてください。
このサービスは使ったことがないのですがrunpodとの違い、なぜこちらのほうがいいのか、知りたいです!
箇条書きで要点をまとめます!あくまで私見です。 ・安定性は結局同じくらい、変わらない ・Runpodに用意されているテンプレートがComfyUIに最適化されていない(managerが最初から入っていない、ffmpegが入っていない) ・上記を解消するための作業のせいで、サーバーを削除することに心理的抵抗があって不健全 ・そもそもVastAIではテンプレを選ぶだけでOK、上記issueなし
2024.4月解体されましたね...