How to Run Flux with 6GB/8GB VRAM

แชร์
ฝัง

ความคิดเห็น • 11

  • @gokulbhardwaj6559
    @gokulbhardwaj6559 2 หลายเดือนก่อน +1

    error: KSampler Expected a cuda device, but got: cpu , but i have gpu with cuda enabled

  • @PythonAndy
    @PythonAndy 3 หลายเดือนก่อน +1

    Solid. Flux image to image possible too?

    • @neoProfessor
      @neoProfessor  3 หลายเดือนก่อน

      Yes should be

  • @oberdoofus
    @oberdoofus 3 หลายเดือนก่อน +2

    thank you! been holding off on Flux on account of low vram - looks like I've no excuse now! BTW should we have the latest comfyUI installed?

    • @neoProfessor
      @neoProfessor  3 หลายเดือนก่อน

      Yes you should update, it may still work with older versions however

  • @twexyolo7585
    @twexyolo7585 2 หลายเดือนก่อน +2

    I can't download the workflow. I just ahev a .png image on patreon ? Is it normal ? Am i missing something ? Thx and very good video btw

    • @gokulbhardwaj6559
      @gokulbhardwaj6559 2 หลายเดือนก่อน

      Same

    • @devdotcomm
      @devdotcomm หลายเดือนก่อน +1

      @@gokulbhardwaj6559 ​just drag and drop the image to comfy ui, it will load the workflow

  • @lumaah974
    @lumaah974 3 หลายเดือนก่อน

    Do you know if it's possible to train a lora with a 8gb vram card ? (i have a 2070)

    • @neoProfessor
      @neoProfessor  3 หลายเดือนก่อน

      not entirely sure, think minimum is 12 gb

  • @quartz9369
    @quartz9369 28 วันที่ผ่านมา

    does gguf works in forge?