Exploring the fastest open source LLM for inferencing and serving | VLLM

แชร์
ฝัง
  • เผยแพร่เมื่อ 16 พ.ย. 2024

ความคิดเห็น • 21

  • @bernard2735
    @bernard2735 9 หลายเดือนก่อน +2

    This was a nicely paced and clear tutorial. Thank you. Liked and subscribed.

    • @JarvislabsAI
      @JarvislabsAI  9 หลายเดือนก่อน

      Thanks for the support :)

  • @HermesFibonacci
    @HermesFibonacci หลายเดือนก่อน

    Very interesting i listened to the very end, and it gave me some ideas for prepping my Model. Thanks for the explanation and demo. May I ask?... Do you think an Nvidia GTX Orin Devkit 64 GB would be fitting for running LLMs locally for fine tuning, training and later deploying to server once developed (both Locally and Server on Ubuntu)?

    • @JarvislabsAI
      @JarvislabsAI  หลายเดือนก่อน

      Have not tried it. No idea.

  • @Akshatgiri
    @Akshatgiri 9 หลายเดือนก่อน +1

    Super useful. Thanks for breaking it down.

  • @dineshgaddi1843
    @dineshgaddi1843 10 หลายเดือนก่อน +2

    Thank you for sharing this information.

    • @JarvislabsAI
      @JarvislabsAI  10 หลายเดือนก่อน

      Glad it was helpful!

  • @YajuvendraSinghRawat
    @YajuvendraSinghRawat 6 หลายเดือนก่อน

    Its a wonderful videa, clearly and concisely explained.

    • @JarvislabsAI
      @JarvislabsAI  5 หลายเดือนก่อน

      Glad you liked it

  • @kaiwalya_patil
    @kaiwalya_patil 10 หลายเดือนก่อน +1

    An excellent one! Thank you so much for sharing.
    Any idea about the possibility of fine tuning my own LLM(like Llama/Mistral), uploading back to HF and the put it into production using VLLM?

    • @JarvislabsAI
      @JarvislabsAI  10 หลายเดือนก่อน

      Yeah definitely possible. Would make one soon.

    • @kaiwalya_patil
      @kaiwalya_patil 10 หลายเดือนก่อน

      @@JarvislabsAI Thank you, looking forward!

  • @Ian-fo9vh
    @Ian-fo9vh 8 หลายเดือนก่อน

    hank you, it was interesting.

  • @alecd8534
    @alecd8534 10 หลายเดือนก่อน

    Thanks for your video. It is interesting.
    I am new to LLM and one question to ask.
    When you run JarvisLabs in your demo, does it mean you are running a server running locally to provide API endpoint?
    Please advise

    • @JarvislabsAI
      @JarvislabsAI  10 หลายเดือนก่อน

      In the demo, I was running on a gpu powered instance. The vllm server in this case is running in the Jarvislabs instance. You can use the API endpoint from anywhere.

    • @alecd8534
      @alecd8534 10 หลายเดือนก่อน

      @@JarvislabsAI thanks so much.
      I have Navida T500 GPU card on my laptop. But it has only 4 gb. Can it run vLLM?
      Do we need to install JarvislabsAI on our local machine?
      Does JarvisLab do?
      Thanks

    • @JarvislabsAI
      @JarvislabsAI  10 หลายเดือนก่อน +1

      Not sure, if will be possible to run vllm on T500 GPU. Jarvislabs, offers a gpu instance in which you can use vllm.

  • @fxhp1
    @fxhp1 9 หลายเดือนก่อน

    hey i also have an AI channel, i tried mistrals model and it didnt finish its execution and looped over the input forever, i had slightly better luck with the instruct version. did you ever get mistral to work?

    • @JarvislabsAI
      @JarvislabsAI  9 หลายเดือนก่อน

      We tried with vLLM and remember it working. I will probably check again.