A Latent Place
A Latent Place
  • 83
  • 171 407
ComfyUI: FLUX - My 48.9 Cents | English
[AI DUBBED] In this video I show you the different basic techniques for using FLUX. However, this time I also have a personal opinion about the model.
Important Links:
ComfyUI: github.com/comfyanonymous/ComfyUI
Q Models: huggingface.co/city96/FLUX.1-dev-gguf/tree/main
GGUF Custom Nodes: github.com/city96/ComfyUI-GGUF
XLabs LoRA Collection: huggingface.co/XLabs-AI/flux-lora-collection
FLUX IPA: huggingface.co/XLabs-AI/flux-ip-adapter
XFlux ComfyUI Nodes: github.com/XLabs-AI/x-flux-comfyui
XLabs HF: huggingface.co/XLabs-AI
Workflow, flux_dev_simple: www.alatentplace.de/download/wf/flux_dev_simple.json
Installed Custom Nodes:
Manager: github.com/ltdrdata/ComfyUI-Manager
Impact Pack: github.com/ltdrdata/ComfyUI-Impact-Pack
Stability AI: github.com/Stability-AI/stability-ComfyUI-nodes
Auxiliary Preprocessors: github.com/Fannovel16/comfyui_controlnet_aux
ComfyUI Frame Interpolation: github.com/Fannovel16/ComfyUI-Frame-Interpolation
CLIPSeg: github.com/biegert/ComfyUI-CLIPSeg
ComfyUI Noise: github.com/BlenderNeko/ComfyUI_Noise
Davemane42's Custom Node: github.com/Davemane42/ComfyUI_Dave_CustomNode
ComfyUI-post-processing-nodes: github.com/EllangoK/ComfyUI-post-processing-nodes
Masquerade Nodes: github.com/BadCafeCode/masquerade-nodes-comfyui
Comfyroll: github.com/RockOfFire/ComfyUI_Comfyroll_CustomNodes
IPAdapter plus: github.com/cubiq/ComfyUI_IPAdapter_plus
ComfyUI InstantID: github.com/cubiq/ComfyUI_InstantID
Face Analysis for ComfyUI: github.com/cubiq/ComfyUI_FaceAnalysis
ComfyUI Advanced Controlnet: github.com/Kosinkadink/ComfyUI-Advanced-ControlNet
AnimateDiff Evolved: github.com/Kosinkadink/ComfyUI-AnimateDiff-Evolved
ComfyUI-VideoHelperSuite: github.com/Kosinkadink/ComfyUI-VideoHelperSuite
ComfyUI-Logic: github.com/theUpsider/ComfyUI-Logic
rgthree's ComfyUI Nodes: github.com/rgthree/rgthree-comfy
NNLatent Upscale: github.com/Ttl/ComfyUi_NNLatentUpscale
ComfyUI Inpaint Nodes: github.com/Acly/comfyui-inpaint-nodes
ComfyUI Essentials: github.com/cubiq/ComfyUI_essentials
Crystools: github.com/crystian/ComfyUI-Crystools
Image2Prompt: github.com/zhongpei/Comfyui_image2prompt
SUPIR: github.com/kijai/ComfyUI-SUPIR
YANC: github.com/ALatentPlace/ComfyUI_yanc
ICLight: github.com/kijai/ComfyUI-IC-Light
KJNodes: github.com/kijai/ComfyUI-KJNodes
GGUF Custom Nodes: github.com/city96/ComfyUI-GGUF
XFlux ComfyUI Nodes: github.com/XLabs-AI/x-flux-comfyui
0:00 Intro
0:43 Flux Dev
12:04 Image 2 Image
14:48 Noise Injection
17:08 Img2Img + NI
18:05 NI Custom Sampler Advanced
20:57 Flux Schnell
25:21 Flux FP8
31:24 Quantized Models
39:58 Flux LoRA
42:59 Flux IPAdapter
50:47 Flux Controlnets
55:18 My personal opinion
Buy me a coffee: www.buymeacoffee.com/alatentplace
Twitter: a_latent_place
Instagram: a_latent_place
Discord: discord.gg/WWsZSnWr89
มุมมอง: 480

วีดีโอ

ComfyUI: FLUX - My 48.9 Cents | German
มุมมอง 1.2K4 ชั่วโมงที่ผ่านมา
In diesem Video zeige ich euch die verschiedenen Grundtechniken, um FLUX zu benutzen. Allerdings habe ich diesmal auch eine persönliche Meinung zum Model. Wichtige Links: ComfyUI: github.com/comfyanonymous/ComfyUI Q Models: huggingface.co/city96/FLUX.1-dev-gguf/tree/main GGUF Custom Nodes: github.com/city96/ComfyUI-GGUF XLabs LoRA Collection: huggingface.co/XLabs-AI/flux-lora-collection FLUX IP...
ComfyUI: Material Transfer | English
มุมมอง 648หลายเดือนก่อน
In this video I show you how you can achieve a material transfer using the IPAdapter. Important Links: ComfyUI: github.com/comfyanonymous/ComfyUI IPAdapter plus: github.com/cubiq/ComfyUI_IPAdapter_plus Workflow: www.alatentplace.de/download/wf/material_transfer.json Installed Custom Nodes: Manager: github.com/ltdrdata/ComfyUI-Manager Impact Pack: github.com/ltdrdata/ComfyUI-Impact-Pack Stabilit...
ComfyUI: Material Transfer | German
มุมมอง 429หลายเดือนก่อน
In diesem Video zeige ich euch, wie ihr mit Hilfe des IPAdapters einen Material Transfers erreichen könnt. Wichtige Links: ComfyUI: github.com/comfyanonymous/ComfyUI IPAdapter plus: github.com/cubiq/ComfyUI_IPAdapter_plus Workflow: www.alatentplace.de/download/wf/material_transfer.json Installierte Custom Nodes: Manager: github.com/ltdrdata/ComfyUI-Manager Impact Pack: github.com/ltdrdata/Comfy...
ComfyUI: Style & Composition Transfer | English
มุมมอง 1.3Kหลายเดือนก่อน
In this video I show the different variants for a style and / or composition transfer with the IPAdapter. Important Links: ComfyUI: github.com/comfyanonymous/ComfyUI IPAdapter plus: github.com/cubiq/ComfyUI_IPAdapter_plus Prompt Injection Discussions: github.com/cubiq/prompt_injection/discussions Latent Vision: th-cam.com/video/ewKM7uCRPUg/w-d-xo.htmlsi=-SKFRBD5-d4d9xAu Workflow: NA Installed C...
ComfyUI: Style & Composition Transfer | Stable Diffusion | German | English Subtitles
มุมมอง 1.4K2 หลายเดือนก่อน
In diesem Video zeige ich die verschiedenen Varianten für einen Style und / oder Composition Transfer mit dem IPAdapter. Wichtige Links: ComfyUI: github.com/comfyanonymous/ComfyUI IPAdapter plus: github.com/cubiq/ComfyUI_IPAdapter_plus Prompt Injection Discussions: github.com/cubiq/prompt_injection/discussions Latent Vision: th-cam.com/video/ewKM7uCRPUg/w-d-xo.htmlsi=-SKFRBD5-d4d9xAu Workflow: ...
ComfyUI: Lighting with Normal Maps | Stable Diffusion | German | English Subtitles
มุมมอง 1.1K2 หลายเดือนก่อน
In diesem Video zeige ich euch, wie ihr mit Normal Maps in einem Bild nachträglich die Belichting anpassen könnt. Wichtige Links: ComfyUI: github.com/comfyanonymous/ComfyUI ICLight: github.com/kijai/ComfyUI-IC-Light YANC: github.com/ALatentPlace/ComfyUI_yanc TJ Normal Lighting: github.com/TJ16th/comfyUI_TJ_NormalLighting Workflow: www.alatentplace.de/download/wf/IClight_Normals.json Installiert...
ComfyUI: ICLight - Videos | Stable Diffusion | German | English Subtitles
มุมมอง 6493 หลายเดือนก่อน
Mit ICLight könnt ihr die Lichverhältnisse in Bildern nachträglich ändern und anpassen. In diesem Video zeige ich euch wie. Wichtige Links: ComfyUI: github.com/comfyanonymous/ComfyUI ICLight: github.com/kijai/ComfyUI-IC-Light KJNodes: github.com/kijai/ComfyUI-KJNodes YANC: github.com/ALatentPlace/ComfyUI_yanc Workflow: NA Installierte Custom Nodes: Manager: github.com/ltdrdata/ComfyUI-Manager I...
ComfyUI: ICLight - Images | Stable Diffusion | German | English Subtitles
มุมมอง 8673 หลายเดือนก่อน
Mit ICLight könnt ihr die Lichverhältnisse in Bildern nachträglich ändern und anpassen. In diesem Video zeige ich euch wie. Wichtige Links: ComfyUI: github.com/comfyanonymous/ComfyUI ICLight: github.com/kijai/ComfyUI-IC-Light KJNodes: github.com/kijai/ComfyUI-KJNodes YANC: github.com/ALatentPlace/ComfyUI_yanc Workflow: NA Installierte Custom Nodes: Manager: github.com/ltdrdata/ComfyUI-Manager I...
ComfyUI: Noise Injection Sampler | Stable Diffusion | German | English Subtitles
มุมมอง 2.7K3 หลายเดือนก่อน
Mit dem Noise Injection Sampler könnt ihr eure Bilder noch mehr pushen. Ich zeige euch in diesem Video, wie mein neuer Sampler funktioniert. Wichtige Links: ComfyUI: github.com/comfyanonymous/ComfyUI YANC: github.com/ALatentPlace/ComfyUI_yanc www.youtube.com/@latentvision Workflow: NA Installierte Custom Nodes: Manager: github.com/ltdrdata/ComfyUI-Manager Impact Pack: github.com/ltdrdata/ComfyU...
ComfyUI: Instruct Pix2Pix | Stable Diffusion | German | English Subtitles
มุมมอง 3.3K4 หลายเดือนก่อน
Mit Instruct Pix2Pix könnt ihr per simplen Anweisungen existierende Bilder manipulieren lassen. In diesem Video zeige ich euch COSXL, Intruct Pix2Pix sowie das Pix2Pix Controlnet. Wichtige Links: ComfyUI: github.com/comfyanonymous/ComfyUI COSXL: huggingface.co/stabilityai/cosxl Instruct Pix2Pix: huggingface.co/timbrooks/instruct-pix2pix Controlnet: huggingface.co/lllyasviel/ControlNet-v1-1/tree...
ComfyUI: IPAdapter v2 Batch | Stable Diffusion | German | English Subtitles
มุมมอง 1.3K5 หลายเดือนก่อน
In diesem Teil der Serie zeige ich euch, wofür der IPAdapter Batch gut sein kann. Wichtige Links: ComfyUI: github.com/comfyanonymous/ComfyUI IPAdapter plus: github.com/cubiq/ComfyUI_IPAdapter_plus Workflow: NA Installierte Custom Nodes: Manager: github.com/ltdrdata/ComfyUI-Manager Impact Pack: github.com/ltdrdata/ComfyUI-Impact-Pack Stability AI: github.com/Stability-AI/stability-ComfyUI-nodes ...
ComfyUI: IPAdapter v2 Tiled | Stable Diffusion | German | English Subtitles
มุมมอง 1.5K5 หลายเดือนก่อน
In diesem Teil der Serie geht es um den IPAdapter Tiled. Auch er ist ein super Tool, mit dem man viel Spaß haben kann. Wichtige Links: ComfyUI: github.com/comfyanonymous/ComfyUI IPAdapter plus: github.com/cubiq/ComfyUI_IPAdapter_plus Workflow: NA Installierte Custom Nodes: Manager: github.com/ltdrdata/ComfyUI-Manager Impact Pack: github.com/ltdrdata/ComfyUI-Impact-Pack Stability AI: github.com/...
ComfyUI: IPAdapter v2 Embeds | Stable Diffusion | German | English Subtitles
มุมมอง 1.7K5 หลายเดือนก่อน
In diesem Teil der Serie zeige ich euch, wie man die Embedings korrekt anwendet. Viel Spaß dabei! Wichtige Links: ComfyUI: github.com/comfyanonymous/ComfyUI IPAdapter plus: github.com/cubiq/ComfyUI_IPAdapter_plus Workflow: NA Installierte Custom Nodes: Manager: github.com/ltdrdata/ComfyUI-Manager Impact Pack: github.com/ltdrdata/ComfyUI-Impact-Pack Stability AI: github.com/Stability-AI/stabilit...
ComfyUI: IPAdapter v2 Style Transfer | Stable Diffusion | German | English Subtitles
มุมมอง 1.9K5 หลายเดือนก่อน
Das Video war ungeplant. Mitten in der Serie kommt ein neues Update heraus, mit einem wirklich coolen Feature: Dem Style Transfer! Wichtige Links: ComfyUI: github.com/comfyanonymous/ComfyUI IPAdapter plus: github.com/cubiq/ComfyUI_IPAdapter_plus Workflow: NA Installierte Custom Nodes: Manager: github.com/ltdrdata/ComfyUI-Manager Impact Pack: github.com/ltdrdata/ComfyUI-Impact-Pack Stability AI:...
ComfyUI: IPAdapter v2 FaceID | Stable Diffusion | German | English Subtitles
มุมมอง 2K5 หลายเดือนก่อน
ComfyUI: IPAdapter v2 FaceID | Stable Diffusion | German | English Subtitles
ComfyUI: IPAdapter v2 Basics | Stable Diffusion | German | English Subtitles
มุมมอง 2.5K5 หลายเดือนก่อน
ComfyUI: IPAdapter v2 Basics | Stable Diffusion | German | English Subtitles
ComfyUI: SUPIR Upscaler | Stable Diffusion | German | English Subtitles
มุมมอง 3.2K5 หลายเดือนก่อน
ComfyUI: SUPIR Upscaler | Stable Diffusion | German | English Subtitles
ComfyUI: SDXL Lightning | Stable Diffusion | German | English Subtitles
มุมมอง 1.4K6 หลายเดือนก่อน
ComfyUI: SDXL Lightning | Stable Diffusion | German | English Subtitles
ComfyUI: Lower Denoise Outpainting | Stable Diffusion | German | English Subtitles
มุมมอง 1.5K6 หลายเดือนก่อน
ComfyUI: Lower Denoise Outpainting | Stable Diffusion | German | English Subtitles
ComfyUI: Prompts with Moondream | Stable Diffusion | German | English Subtitles
มุมมอง 3.5K7 หลายเดือนก่อน
ComfyUI: Prompts with Moondream | Stable Diffusion | German | English Subtitles
ComfyUI: Inpainting Variants | Stable Diffusion | German | English Subtitles
มุมมอง 2.5K7 หลายเดือนก่อน
ComfyUI: Inpainting Variants | Stable Diffusion | German | English Subtitles
ComfyUI: Fixing Hands | Stable Diffusion | Deutsch | Englische Untertitel
มุมมอง 2K7 หลายเดือนก่อน
ComfyUI: Fixing Hands | Stable Diffusion | Deutsch | Englische Untertitel
ComfyUI: Hints for everyone | Stable Diffusion | German | English Subtitles
มุมมอง 3.5K7 หลายเดือนก่อน
ComfyUI: Hints for everyone | Stable Diffusion | German | English Subtitles
ComfyUI: Inpaint every model | Stable Diffusion | German | English Subtitles
มุมมอง 3.9K8 หลายเดือนก่อน
ComfyUI: Inpaint every model | Stable Diffusion | German | English Subtitles
ComfyUI: FaceID plus v2 | Stable Diffusion | German | English Subtitles
มุมมอง 3.5K8 หลายเดือนก่อน
ComfyUI: FaceID plus v2 | Stable Diffusion | German | English Subtitles
ComfyUI: FaceID plus | Stable Diffusion | German | English Subtitles
มุมมอง 4.2K8 หลายเดือนก่อน
ComfyUI: FaceID plus | Stable Diffusion | German | English Subtitles
ComfyUI: Brightness Controlnet | Stable Diffusion | German | English Subtitles
มุมมอง 1.4K8 หลายเดือนก่อน
ComfyUI: Brightness Controlnet | Stable Diffusion | German | English Subtitles
ComfyUI: SDXL Turbo Community Models | Stable Diffusion | German | English Subtitles
มุมมอง 1.9K8 หลายเดือนก่อน
ComfyUI: SDXL Turbo Community Models | Stable Diffusion | German | English Subtitles
ComfyUI: SDXL Turbo - Images in 1 Step | Stable Diffusion | German | English Subtitles
มุมมอง 3.2K9 หลายเดือนก่อน
ComfyUI: SDXL Turbo - Images in 1 Step | Stable Diffusion | German | English Subtitles

ความคิดเห็น

  • @Xyrnoz
    @Xyrnoz 15 ชั่วโมงที่ผ่านมา

    Echt super deine Videos ! auch wenn dieses Video 12 Monate alt ist! immernoch Super :)

  •  วันที่ผ่านมา

    mit ner 3070 ti ist ok, aber nix gegen andere Modelle, bis auf text. Text wird auch für kleinere Modelle kommen. Es ist noch früh für flux. Optimierung wird kommen.

  •  วันที่ผ่านมา

    quick and dirty hauptsache erster. So sieht es bei xlab leider aus. Warte wohl eher auf andere Entwickler. Ist echt mist.

  •  วันที่ผ่านมา

    yeah, ich hab was geschnallt. Ich habe bei der negativ node direkt geschrien :-)

  • @Stefan188x
    @Stefan188x วันที่ผ่านมา

    1:07:39 naja aus dem Grund haben sich halt aber auch viele bei XL schon eine 3090 gekauft, irgendwo is es halt auch son Ding mit Fortschritt und wen lässt man zurück. Ich seh das Problem eher im Schnell und Dev und dass Controllnet und Lora eben direkt die Dev Lizenz hat sprich nicht kommerziell nutzbar ist

  • @Stefan188x
    @Stefan188x วันที่ผ่านมา

    Lora und civitai wäre noch eine gute Frage ob die Loras jetzt auf Dev oder auch für schnell geeignet sind, der Filter bei civitai findet bei Schnell 1 lora und bei dev massig

  • @murphylanga
    @murphylanga 2 วันที่ผ่านมา

    Hm, ich wechsle in meinen Workflows zwischen den großen Fluxmodellen, SDXL, GGUF und den Comfy Optimierten Modellen hin und her, mit ner 4080. Img2Img mit Flux über SDXL und umgekehrt... Keine Problem und weniger als eine Minute für generieren und optimieren.... Ihr solltet auf eueren Arbeitsspeicher achten 32 GB sind zu wenig um effektiv damit zu arbeiten.

  • @SasukeGER
    @SasukeGER 2 วันที่ผ่านมา

    meine 3060 schafft leider nur Flux Schnell :(

  • @pk.9436
    @pk.9436 2 วันที่ผ่านมา

    Gebe dir vollkommen Recht, hoffe es kommt ein vernünftiges Modell raus um auch mit nicht High-End Modellen gut und schnell zu arbeiten. Hat bisschen geschmäckle 🤐

  • @Jim1Dean
    @Jim1Dean 2 วันที่ผ่านมา

    ich benutze die GGUF Variante darf ich fragen welche Grafikarte du hast ? Ich würde gerne die Zeiten vergleichen. Ich habe eine alte Tesla P100 16GB die braucht für den selben Prompt 5min 5sec

    • @bodo2567
      @bodo2567 2 วันที่ผ่านมา

      RTX 3080 hat er gesagt ... die hat offiziell 10 GB gemoddet gibt es die auch mit 20 GB

  • @apacchiart3970
    @apacchiart3970 2 วันที่ผ่านมา

    Good points. I wish they provided a smaller model like 6/8B. A lot more people would be able to play with it locally. I have 16Gb Vram, but even then I don't want to wait ages for a decent pic with loras/control nets. I like to iterate fast to test out new ideas. SDXL/SD 1.5 will still be around for a while until SD can bring out a better model that isn't gimped like SD3

  • @zraieee
    @zraieee 2 วันที่ผ่านมา

    good, How do you show a yellow folders in NODE (Checkpoint)

    • @ALatentPlace
      @ALatentPlace 2 วันที่ผ่านมา

      This is coming from the rgthree custom node collection.

    • @zraieee
      @zraieee 2 วันที่ผ่านมา

      @@ALatentPlace thanks so much

  • @renegat552
    @renegat552 2 วันที่ผ่านมา

    Der IP-Adapter ist wirklich schlecht. Ich hoffe sehr, dass Matteo sich dieser Sache annimmt.

    • @ALatentPlace
      @ALatentPlace 2 วันที่ผ่านมา

      Er wartet derzeit auf ein besseres Model des IPAs, bevor er mit einer Implementierung anfangen möchte.

  • @DTD-vc3nv
    @DTD-vc3nv 2 วันที่ผ่านมา

    Vielen lieben Dank für dein tolles Video. Es ist natürlich Schade zu hören das es bei dir nicht Reibungslos läuft. Bei meinem System Ryzen 5600X, RTX 3060TI 8GB, 128 GB RAM und dieser ComfyUI Konfiguration (Unet Loader GGUF) -> flux1-dev-F16.gguf, (DualCLIPLoader GGUF) -> t5xxl_fp16, ViT-L-14-Text-detail-improved-hiT-GmP-TE, (Load LoRA) -> FLUX-dev-lora-add_details, (KSampler Advanced) -> 20 steps, Image Size 1024x1024 komme ich auf eine Model Ladezeit von 32 Sekunden sowie 79 Sekunden für die 20 Steps. Mit diesen Zeiten und den Ergebnissen die das Modell liefert bin ich absolut zufrieden, besonders schöne Bilder lasse ich dann einmal durch das Ultra-Sharp Model upscalen auf 2048x2048, dieser Schritt dauert zwar 4,5 Minuten aber das Ergebnis ist der Hammer. Der TaskManager zeigt wohl auch 64GB im Ram und 7.9 GB VRAM während der Laufzeit an. Dir noch viel Erfolg mit deinem Kanal.

    • @ALatentPlace
      @ALatentPlace 2 วันที่ผ่านมา

      Danke. :) Vielleicht ist auch mal an der Zeit für mich, eine neue Comfy Instanz aufzusetzen. In der Hoffnung, dass es dadurch stabiler wird. Nichtsdestotrotz beobachte in den Frust auch in unserer Discord Community, nachdem der erste Hype etwas nachgelassen hat.

  • @W00PIE
    @W00PIE 2 วันที่ผ่านมา

    Ich verstehe deine Kritik am Ende nicht. Deine Hardware ist einfach zu schwach, das kannst du doch den Entwicklern nicht ankreiden, die hier ein verdammt gutes Produkt gratis in die Welt werfen? Keiner zwingt dich, ein zu großes Model zu nutzen. Auf meiner 7900XTX läuft alles richtig rund.

    • @ALatentPlace
      @ALatentPlace 2 วันที่ผ่านมา

      Danke für das Feedback. :) Ich bin offen für eine gute Konversation, vielleicht kommst Du auf meinen Discord. Da kann man besser miteinander reden als über YT.

    • @matze2001
      @matze2001 2 วันที่ผ่านมา

      Yep. Flux ist ein enormer Qualitäts-Sprung und noch eine Generation weiter, dann werden sehr viele Aufgaben, die heute per Fotografie gelöst werden, per Prompt erledigt. Ich hab hier schon 20 LoRa´s von Gesichtern gerechnet und mit etwas Nacharbeit direkt in ComfyUI (latent upscale, denoise + Lora) geht das auch mit nur 5-6 Trainingsfotos als valide Fotografie durch. Klar, die Hardware ist jetzt noch ein Problem, aber in 2-3 Jahren ist das was man heute noch recht teuer bezahlen muss, auch Consumer-Standard.

  • @bobbyboe
    @bobbyboe 2 วันที่ผ่านมา

    kannst du deinen reduzierten Dev-Workflow vielleicht doch noch auf den Server schmeissen?

    • @ALatentPlace
      @ALatentPlace 2 วันที่ผ่านมา

      Bitte schön: www.alatentplace.de/download/wf/flux_dev_simple.json

    • @bobbyboe
      @bobbyboe 2 วันที่ผ่านมา

      @@ALatentPlace danke schön 💛

  • @der-zerfleischer
    @der-zerfleischer 2 วันที่ผ่านมา

    12 Millionen? Ich las mal was von 12 Milliarden. SDXL soll 6 Milliarden haben. MacBook Prro M3 Max 36GB Flux1-dev 1700sec. = 28 Minuten Da bekommt man Zahnschmerzen, gell? 🙂

    • @ALatentPlace
      @ALatentPlace 2 วันที่ผ่านมา

      Ups, da ist tatsächlich ein wenig Kraut und Rüben passiert. Geistig war ich im Englischen "Billions", was auf Deutsch natürlich Milliarde bedeutet, nicht Billion. Danke für den Hinweis.

    • @der-zerfleischer
      @der-zerfleischer 2 วันที่ผ่านมา

      @@ALatentPlace Super Video und vor allem Schlusswort. Optisch erkennt man oft die Flux-Bilder. Testen kann ich es allerdings gar nicht (siehe Zeiten)

  • @bobbyboe
    @bobbyboe 2 วันที่ผ่านมา

    Vielen herzlichen Dank dass du etwas Klarheit in das Dickicht bringst. Ich hab extra gewartet auf dein Video, vorher fange ich gar nicht erst an. Ich bin dir auch sehr dankbar für deine ehrliche Meinung! super hilfreich!

  • @sebastianmuller1624
    @sebastianmuller1624 2 วันที่ผ่านมา

    Flux Dev Bilder sollen tatsächlich kommerziell nutzbar sein, nur das Model selber nicht gratis kommerziell eingebunden sein... oder so

  • @sirmeon1231
    @sirmeon1231 2 วันที่ผ่านมา

    Meine Ansicht zum Podcast Anteil zum Schluss: Naja die Hardware Limitierung kann man nur begrenzt vermeiden. Bessere Ergebnisse werden sich mittelfristig nicht mehr ohne mehr Leistung erzielen lassen. Dass der Open Source Gedanke immer weiter weg fällt sehe ich leider auch so, das ist kritisch. Wir haben ein ähnliches Lizenzmodell wie bei SD3 am Anfang, aber der Aufschrei blieb dieses Mal aus. Damit wird das wieder normalisiert und künftigen Modellen der Weg geebnet. Ja derzeit ist eigentlich alles online FLUX. Ich hoffe das ändert sich wieder. Ich mag die Bilder zwar, aber bin mir nicht mehr sicher, wie sich das entwickeln wird. SD3 in gut wäre genial! Hoffen wir da mal auf das Beste... 8B wäre gar nicht nötig, einfach das bereits veröffentlichte in gut!

    • @ALatentPlace
      @ALatentPlace 2 วันที่ผ่านมา

      Das man die Hardware der benötigten Leistung im Laufe der Zeit anpassen muss lässt sich nicht vermeiden. Ist ähnlich wie im Gaming Bereich. Allerdings findet man im Gaming Bereich auf oft Anforderungen, die eigentlich erst mit der nächsten Hardware Generation erfüllt werden können. Bei FLUX besteht für mich der Gedanke, dass auch die nächste Generation nicht wirklich ausreichen wird. Das macht mir Sorgen. Du sprichst aber auch ein interessantes Thema mit den Lizenzen an. Nimm ein Model, welches augenscheinlich nicht so gute Bilder produziert (aka SD3 Medium, Woman lying on a green meadow), dann schreit auch jeder wegen der Lizenz und es werden Videos darüber gemacht. Nimm aber ein Model welches gute Bilder erzeugt (FLUX oder Kolors), dann schert sich kaum jemand um die Lizenzen.

    • @sirmeon1231
      @sirmeon1231 2 วันที่ผ่านมา

      @@ALatentPlace ja das stimmt, auch die nächste Generation gpus wird es da schwer haben... Die KI Anforderungen sind hier mal schneller als die Technik dazu 😂 Mich ärgert das ein wenig mit den Lizenzen, weil aktuell alle Energie der community in flux geht, wo nach sd3 noch die rede davon war Modelle weiter zu entwickeln, mit denen wir auch wirklich arbeiten dürfen und die Ergebnisse verwerten. Und jetzt ist civitai voll mit flux-dev models? Really? 😅 wirf den Leuten eine Karotte hin und die hohen Ziele sind vergessen...

  • @sirmeon1231
    @sirmeon1231 2 วันที่ผ่านมา

    Könnten wir das Bokeh evtl über "f-stop 9" oder so beheben? Hab es bisher nicht probiert weil ich den Look sehr mag...

    • @ALatentPlace
      @ALatentPlace 2 วันที่ผ่านมา

      Habe ich auch noch nicht probiert. Das kommt darauf an, ob das Model darauf trainiert wurde bzw. das Tagging entsprechend angewendet wurde. Ich mag Bokeh auch gerne. Aber problematisch ist es, wenn man es auch kontrolliert nicht weg bekommen kann.

    • @sirmeon1231
      @sirmeon1231 2 วันที่ผ่านมา

      @@ALatentPlace Klar, das tagging ist dafür Voraussetzung.

    • @nikomedia
      @nikomedia 2 วันที่ผ่านมา

      F-Stop hat bei mir nichts geholfen. Was hilft, zumindest bilde ich mir das ein, ist, den Hintergrund etwas detailreicher zu beschreiben, dann wird dieser auch nicht so unscharf. Natürlich, bei einer weißen Wand im Hintergrund wird das auch nichts bringen ;)

    • @ALatentPlace
      @ALatentPlace 2 วันที่ผ่านมา

      Ja, das kann schon helfen. Bei SDXL war es aber angenehmer, da musste man den Bokeh im Prompt angeben und konnte es sogar mit der Gewichtung steuern. :D

  • @dompom8416
    @dompom8416 2 วันที่ผ่านมา

    Merci für das Video und vor allem den letzten Teil mit deiner Meinung zum Modell. Mein erster gedanke als ich mich etwas damit befasst hatte war auch - ja gut werde ich sowieso nicht benutzen können :D Finde man muss auch unabhängig von Flux, beobachten wie viel Zeit man zum Teil beim generieren für ein einziges Bild investiert bis es so raus kommt wie man sich das vorgestellt hat. Ich liebe es diese Modelle zu benutzen aber wirklich effizient bin ich persönlich leider noch nicht damit.

  • @OnePikki
    @OnePikki 2 วันที่ผ่านมา

    Sobald Du den Prompt änderst, wird das model komplett neu geladen. Das ist jedenfalls mein Eindruck. Wenn Du zwischen Flux und zum Beispiel SDXL wechselst und umgekehrt, werden die Zeiten unerträglich - auch mit einer 4090. Am besten ist Comfy neu laden und nur Flux-Modelle nutzen, wenn Du vorher mit SDXL gearbeitest hast. Übrigens gibt es ein Schnell FP8 was bei super funktioniert. Generell haben alle Flux Models Probleme mit vertikalen Bildern (mein EIndruck!). Horizontal ist unfassbar gut!

    • @elessariel
      @elessariel 2 วันที่ผ่านมา

      Was wäre aktuell deine Empfehlung, wenn ich z.B. mittels FLUX einen Basis erstellen möchte und dann mit img2img er SDXL nochmal drüber möchte?

    • @OnePikki
      @OnePikki 2 วันที่ผ่านมา

      @@elessariel Flux schnell 8fp mit t5xxxl16fp clip und dann SDXL (gibt es ja einige gute Light Modelle)...

  • @rachinc
    @rachinc 3 วันที่ผ่านมา

    12:25 nothing comes up when i search for layer weights. yes your video says you have custom nodes listed below but its not clear which link is for Ipams. nvm I googled it, and the internet says to go to manager and install "ComfyUI_yanc" from custom

  • @Fotomaggi
    @Fotomaggi 3 วันที่ผ่านมา

    Hm? mit dem neusten Comfyui ist es über den Manager nicht mehr zu finden. Und wenn man es von Hand installiert fehlen die image2promt nodes. Hast du da vielleicht ne Lösung für bzw. alternativen ?

  • @deheinrich4785
    @deheinrich4785 19 วันที่ผ่านมา

    hi wie kommt das dass du beim ksampler noch so eine vorschau während des generierens bekommst?

    • @ALatentPlace
      @ALatentPlace 18 วันที่ผ่านมา

      Das ist eine Option im Comfy Manager, nennt sich Preview Method. Dort kann man das einschalten. :)

  • @user-gr9ov2js2p
    @user-gr9ov2js2p 29 วันที่ผ่านมา

    how can i get tihs controlnet model name"control sd15 inpaint depth hand fp16.safetensors "?

    • @ALatentPlace
      @ALatentPlace 29 วันที่ผ่านมา

      Here: huggingface.co/hr16/ControlNet-HandRefiner-pruned/blob/main/control_sd15_inpaint_depth_hand_fp16.safetensors

    • @user-gr9ov2js2p
      @user-gr9ov2js2p 29 วันที่ผ่านมา

      oh i got this model thankyouSir it's very helpful for me !

    • @user-gr9ov2js2p
      @user-gr9ov2js2p 29 วันที่ผ่านมา

      @@ALatentPlace thankyou Sir! Additionally, my “MeshGraphormer Hand Refiner” node is reporting an error message of “An error happened while trying to locate the file on the Hub and we cannot find the requested files in the local cache. Please check your connection and try again or make sure your Internet connection is on.”. How can I resolve this issue

  • @josemariagala2588
    @josemariagala2588 หลายเดือนก่อน

    How can i see the node search popup?

    • @ALatentPlace
      @ALatentPlace หลายเดือนก่อน

      Double click on the canvas.

    • @josemariagala2588
      @josemariagala2588 หลายเดือนก่อน

      @@ALatentPlace Thanks for the info! Great video :) This flow would be applicable to design spaces with detail? and that brand logos are recognisable?

  • @holawholaw
    @holawholaw หลายเดือนก่อน

    How to make the Ksampler node showing the image

    • @ALatentPlace
      @ALatentPlace หลายเดือนก่อน

      There is an option in the ComfyUI Manager, called Preview Method.

  • @analysierer9456
    @analysierer9456 หลายเดือนก่อน

    Kann es sein das es Dave22 nicht mehr gibt?

    • @ALatentPlace
      @ALatentPlace หลายเดือนก่อน

      Den gibt es noch: github.com/Davemane42/ComfyUI_Dave_CustomNode

    • @lupla78
      @lupla78 หลายเดือนก่อน

      @@ALatentPlace Leider wird da nicht mehr weiter entwickelt. Anfang April wurde das Repository archiviert. Auf civitai wurde auch schon geschrieben, dass es nicht mehr funktionieren würde.

  • @jhj6810
    @jhj6810 หลายเดือนก่อน

    I did not get what is ipadapter noise for. Someone can help?

    • @ALatentPlace
      @ALatentPlace หลายเดือนก่อน

      You can use it as negative image in the IPA, meaning it will send a noisy and blurred image to the unconditioning. By this you tell the model, that you do not want noisy and blurred images.

  • @freekhitman9916
    @freekhitman9916 หลายเดือนก่อน

    really good tutorial need to test that with my newer models and thanks that you love my fenris xl model ;-)

    • @ALatentPlace
      @ALatentPlace หลายเดือนก่อน

      Hey. :) Also thanks for this nice model.

    • @freekhitman9916
      @freekhitman9916 หลายเดือนก่อน

      @@ALatentPlace thanks even the 16.4 is slightly outdated compared to my newer models for example "ragnarök", it has this "classic look" and love cats ;-)

    • @ALatentPlace
      @ALatentPlace หลายเดือนก่อน

      yeah, i have to do some updates on my models collection. havent done for a while yet. :D

  • @robertherlet
    @robertherlet หลายเดือนก่อน

    Wieso stellt dein LoadCheckpoint so eine schöne Ordnerstruktur dar?? Sieht bei mir immer noch aus wie Kraut und Rüben... 😁

    • @ALatentPlace
      @ALatentPlace หลายเดือนก่อน

      Das kommt glaube ich aus den rgthree nodes. :)

    • @robertherlet
      @robertherlet หลายเดือนก่อน

      @@ALatentPlace Danke, das war's tatsächlich 🙂

  • @sanbaldo
    @sanbaldo หลายเดือนก่อน

    great tutorial Marco!! if you invert the mask, you can also change the background instead of the subject :D

    • @ALatentPlace
      @ALatentPlace หลายเดือนก่อน

      Thanks. That's correct. :)

  • @willsmithorg
    @willsmithorg หลายเดือนก่อน

    Thanks for the English version. Previously I was watching your German videos with subtitles.

    • @ALatentPlace
      @ALatentPlace หลายเดือนก่อน

      Thanks for the feedback. :) I thouthg, by this it could be easier to watch, although I'm still in the process of finding a good workflow for the English versions.

    • @kakochka1
      @kakochka1 หลายเดือนก่อน

      The same, although I abandoned the idea of watching with subs. @ALatentPlace Could you maybe translate you previous relevant vids the same way?) I'd love to watch them!)

    • @ALatentPlace
      @ALatentPlace หลายเดือนก่อน

      I thinking about also providing some previous videos translated. But it wouldn't make sense for all of them.

  • @profitsmimetiques8682
    @profitsmimetiques8682 หลายเดือนก่อน

    Hi ! I wanted to know if you have any idea how zia fit on I.ns.sta is made ? It's a specillized ai agency (themixedai) behind and i don't know what kind of workflow they use to get this level of quality, consitency. It seems that the base image is an exsiting one, but then they maybe use a 3d pose character + openpose + lora for body + lora for face, but something is off. I you have any idea on how to do that it would be really interesting to know, they are kinda the best in their field.

  • @profitsmimetiques8682
    @profitsmimetiques8682 หลายเดือนก่อน

    Hi ! I wanted to know if you have any idea how zia fit on I.ns.sta is made ? It's a specillized ai agency (themixedai) behind and i don't know what kind of workflow they use to get this level of quality, consitency. It seems that the base image is an exsiting one, but then they maybe use a 3d pose character + openpose + lora for body + lora for face, but something is off. I you have any idea on how to do that it would be really interesting to know, they are kinda the best in their field.

  • @nkofr
    @nkofr หลายเดือนก่อน

    love your content. update to get "composition precise" :)

  •  หลายเดือนก่อน

    It doesn't matter if it's German or English. What matters is the time you spare for us. Thank you.

  • @ALatentPlace
    @ALatentPlace หลายเดือนก่อน

    As a prototype I now prepared an English version of my latest video. If this goes well, I think about continuing of releasing new videos also in an automatically dubbed version. Let me know what you think.

    • @esuvari
      @esuvari หลายเดือนก่อน

      You should definitely keep this up (english version) Don’t know if you’re eligible for youtube partners program but if you are, it’s even possible to add additional audio tracks on a single video, so you don’t have to upload multiple videos for each language. I think first you need to apply for that feature and get selected though.

    • @ALatentPlace
      @ALatentPlace หลายเดือนก่อน

      I am partnered with YT, but there is still no option to upload multiple audio tracks. I guess it's still in beta for only selected channels.

  • @stropol111
    @stropol111 หลายเดือนก่อน

    👍👍👍👍👍👍👍👍💯

  • @RuinDweller
    @RuinDweller หลายเดือนก่อน

    "Error when executing KSampler: Expected query, key, and value to have the same dtype, but got query.dtype: struct c10::Half key.dtype: float and value.dtype: float instead." :( It worked ONE TIME. After that I got that message every time, although I didn't change ANYTHING.

  • @AbsolutelyForward
    @AbsolutelyForward 2 หลายเดือนก่อน

    Sehr cool! Und hoch spannend, dass die erwähnten 12 Stable Diffusion Layer erst jetzt adressiert werden - oder hab ich was verpennt 😅?

    • @ALatentPlace
      @ALatentPlace 2 หลายเดือนก่อน

      Inzwischen ist es schon ein paar Monate bekannt, aber es tut sich noch so manches in dem Bereich. Und im KI Bereich kann man schon mit einem Augenblinzeln Dinge verpennen. :D

    • @denisquarte7177
      @denisquarte7177 2 หลายเดือนก่อน

      @@ALatentPlace Im Bereich eines neuen Models könnte sich ruhig noch mehr tun. Immerhin scheinen einige Leute an einem besseren VAE zu arbeiten (16ch anstatt 4, die jungs von 'Würschten' aka Cascade z.B.). Leider sind viele Werkzeuge wie Gligen, InstanceDiffusion, IC Light etc. immer noch auf (trainings)stand von sd1.5 und omost damit auch nur spielzeug, das viel zu viel Inpainting erfordert um nützlich zu sein. Comfy gibt jetzt zumindest Vollgas da er nach dem sd3 Debakel seinen Hut bei stability genommen hat. Dem Interface hat es gut getan und ich hoffe er ist damit auch finanziell erfolgreich. Dann profitieren wir nämlich alle.

    • @denisquarte7177
      @denisquarte7177 2 หลายเดือนก่อน

      @@ALatentPlace ach ja, und eine sehr gute entscheidung abstand von irgendwelchen "all in one nodes" zu nehmen, das überfrachtet visuell und überfordert anfänger.

    • @AbsolutelyForward
      @AbsolutelyForward 2 หลายเดือนก่อน

      @@denisquarte7177 Kommt SD3 nicht auch mit 16 chanel (?) daher? Ich habe noch nicht verstanden was der Unterschied zwischen 16ch und 4ch konkret bedeutet bzw. wo der Vorteil liegt? Kannst du hierzu ins Detail gehen?

    • @AbsolutelyForward
      @AbsolutelyForward 2 หลายเดือนก่อน

      @@ALatentPlace oupsi - na dann, bin ich ja mal gespannt ob man den restlichen 10 Layern + der IP-Mad node auch noch was verrücktes machen kann oder ist das quatschi, weil nur Layer 3+6 relevant für den IPadapter sind?

  • @weaze5583
    @weaze5583 2 หลายเดือนก่อน

    Sind die "layerweights for ipams" gleich bei 1.5 und XL ? Ne oder ? Mist, fällt mir ja früh auf.

    • @ALatentPlace
      @ALatentPlace 2 หลายเดือนก่อน

      Nein, die Layer sind bei 1.5 und SDXL unterschiedlich. Für 1.5 kannst Du mal die Precise Style Transfer Node verwenden. Matteo schrieb dazu in unserem Discord: SDXL: Start with a weight of 1.0, you may need to lower it up to 0.7. For the style_boost try 2.0 and move from 1.5 to 3.0 SD 1.5: Start with a weight of 1.0 and try a range of 0.8-1.5. Start with a style_boost of 0 and move from -1 to +1.

  • @nkofr
    @nkofr 2 หลายเดือนก่อน

    Nice! very handfull custom node, I was thinking about doing the same :) cheers & danke schön

  • @DieterStoll-b8i
    @DieterStoll-b8i 2 หลายเดือนก่อน

    Ist es immer noch nicht möglich, die IPAdapter Models ausserhalb der ComfyUI-Instanz zu speichern und extra_model_paths.yaml zu nutzen?

    • @ALatentPlace
      @ALatentPlace 2 หลายเดือนก่อน

      Doch, das geht schon seit längerem.

    • @DieterStoll-b8i
      @DieterStoll-b8i 2 หลายเดือนก่อน

      @@ALatentPlace Obwohl alles aktualisiert, heisst es bei mir "IPAdaper Models not found". Beim Start steht im Terminal: "Adding extra search path ipadapter D:/SD-models/ipadapter/" und dort sind die Models gespeichert.

    • @ALatentPlace
      @ALatentPlace 2 หลายเดือนก่อน

      Haben die Files auch die richtigen Namen?

    • @DieterStoll-b8i
      @DieterStoll-b8i 2 หลายเดือนก่อน

      @@ALatentPlace Hab' alles von der "Matteo-Seite" heruntergeladen und gemacht, was er vorgeschlagen hat.

  • @jaredbeiswenger3766
    @jaredbeiswenger3766 2 หลายเดือนก่อน

    Appreciate these examples.

  • @pixelcounter506
    @pixelcounter506 2 หลายเดือนก่อน

    Very informative. Thank you very much for going deeper into IPA and all these interesting alternatives! Quite overwhelming in respect of RL.^^

  • @garkeiner7116
    @garkeiner7116 2 หลายเดือนก่อน

    Sehr interessant, Danke ..