ComfyUI - Learn how to generate better images with Ollama | JarvisLabs

แชร์
ฝัง
  • เผยแพร่เมื่อ 12 เม.ย. 2024
  • In this video we will learn how to use the power of LLMs using Ollama and Comfy_IF_AI nodes to generate the best images. Vishnu will also take us through on how to set up ollama in JarvisLabs' instances.
    Workflow : github.com/jarvislabsai/comfy...
    Check out Ollama: ollama.com/
    Check out our ComfyUI basics playlist: • ComfyUI - Getting star...
    Check out our socials:
    Website: jarvislabs.ai/
    Discord: / discord
    X: / jarvislabsai
    LinkedIn: / jarvislabsai
    Instagram: / jarvislabs.ai
    Medium: / jarvislabs
    Connect with Vishnu:
    X: / vishnuvig
    Linkedin: / vishnusubramanian
  • วิทยาศาสตร์และเทคโนโลยี

ความคิดเห็น • 23

  • @rishabh063
    @rishabh063 หลายเดือนก่อน

    Hi Vishnu, great vide9

  • @aimademerich
    @aimademerich หลายเดือนก่อน

    Phenomenal

  • @israeldelamoblas5043
    @israeldelamoblas5043 19 วันที่ผ่านมา +2

    Ollama is superslow, I would like a faster version using LM Studio or similar. Thanks

  • @Necro-wr2tn
    @Necro-wr2tn หลายเดือนก่อน +1

    Hey, this looks great but i have a question. How much it costs to generate this images?

    • @JarvislabsAI
      @JarvislabsAI  หลายเดือนก่อน

      These are all opensource software, so there is not much cost associated with it. If you need a GPU, and the base software setup then you would be paying for the compute. The pricing starts at 0.49$ an hour, and the actual billing happens per minute. jarvislabs.ai/pricing

    • @goodchoice4410
      @goodchoice4410 23 วันที่ผ่านมา +1

      lol

    • @Necro-wr2tn
      @Necro-wr2tn 23 วันที่ผ่านมา

      @@goodchoice4410 why lol?

  • @hempsack
    @hempsack 28 วันที่ผ่านมา

    I cannot get this to run on my laptop, it fails to load into comfyui in manager and manual install. I have a full update on comfy, and I also run the txt file to get all the required files needed, and it still fails. Any idea why? I am running a Asus Rog strix 2024 with 64 gigs of ram, and a 4090 16 gigs Vram card. I have all the requirements needed for ai generations.

    • @JarvislabsAI
      @JarvislabsAI  28 วันที่ผ่านมา

      Did you try checking the error log to narrow down the issue?

  • @Ai-dl2ut
    @Ai-dl2ut หลายเดือนก่อน

    Hello sir... doees this IF_AI node take lot of time???... for me its taking like 15mins to load for every queue...using RTX3060

    • @JarvislabsAI
      @JarvislabsAI  หลายเดือนก่อน +1

      It depends on what model you choose. Also try running ollama directly and see how fast it is.

    • @Ai-dl2ut
      @Ai-dl2ut หลายเดือนก่อน

      @@JarvislabsAI Thanks, let me try that

  • @mufasa.alakhras
    @mufasa.alakhras 24 วันที่ผ่านมา

    How do i get the Load Checkpoint?

    • @JarvislabsAI
      @JarvislabsAI  24 วันที่ผ่านมา +1

      You can double click and search for load checkpoint node. If you want the checkpoint model. You can download it from this link: huggingface.co/RunDiffusion/Juggernaut-XL-v8/tree/main

    • @mufasa.alakhras
      @mufasa.alakhras 23 วันที่ผ่านมา

      Thank you!@@JarvislabsAI

  • @impactframes
    @impactframes หลายเดือนก่อน +1

    Hi, Thank you very much great tutorial ❤

    • @JarvislabsAI
      @JarvislabsAI  หลายเดือนก่อน

      Thanks for creating the node, waiting for your future works 😊

    • @impactframes
      @impactframes หลายเดือนก่อน +2

      @@JarvislabsAI I made a super update please check it out also my other nodes for talking avatars😉 and thank again for the tutorial ❤️

    • @JarvislabsAI
      @JarvislabsAI  หลายเดือนก่อน

      @@impactframes Sure, we will look into it 🙌

    • @impactframes
      @impactframes 29 วันที่ผ่านมา +1

      @@JarvislabsAI thank you :)