How to Use Hugging Face Inference API

แชร์
ฝัง
  • เผยแพร่เมื่อ 31 ม.ค. 2025

ความคิดเห็น • 33

  • @kij0te
    @kij0te 9 หลายเดือนก่อน +15

    I am a beginner, after many hours of failed attempts with other TH-cam videos, yours worked, THANK YOU, you are the best

    • @fahdmirza
      @fahdmirza  9 หลายเดือนก่อน

      Glad I could help!

  • @Alvaro-cc6dt
    @Alvaro-cc6dt 8 หลายเดือนก่อน +5

    Thank you so much, my teacher asked me to make a similar tutorial and i based on yours, but dont worry i put your video as reference, greetings from Brazil

    • @fahdmirza
      @fahdmirza  8 หลายเดือนก่อน +1

      wow, so nice of you, thanks. Please also share the channel with your teacher and class. Thanks

  • @DmitriZaitsev
    @DmitriZaitsev 5 วันที่ผ่านมา

    What was the exact code you used? The one you linked to produces another output. Thanks.

  • @adityapatil6723
    @adityapatil6723 2 หลายเดือนก่อน

    sir i admire for just making such a grate vid

    • @fahdmirza
      @fahdmirza  2 หลายเดือนก่อน

      Appreciate it!

  • @shubhamnikumbh4117
    @shubhamnikumbh4117 หลายเดือนก่อน

    How we can make sure the model we pick for repo id. At what quantization type? Because in many models comes with the quantization.

  • @samratajamal
    @samratajamal 11 วันที่ผ่านมา

    I want to deploy openface model for my application but unable to do this and not even showing the deploy option.can you tell me how I deploy this model because The model you use can be deployed.

  • @vigneshrs3221
    @vigneshrs3221 2 หลายเดือนก่อน

    Can I use this api just like the open ai api? And maybe use for my projects?

  • @dallasdominguez9501
    @dallasdominguez9501 8 หลายเดือนก่อน

    Fahd great video! Now When you say we can work with any model on huggingface, does this also include models that accept multimodal inputs? Im on a project where I need to make calls to models like InstructBLIP and LLaVA-Next which are found in the huggingface transformers library. However I'm getting stuck on both how I would make the call to the actual model, how I would structure the prompt and json packet to send to the model (given that I need to send multiple images, data from a csv file, and how I'd be able to integrate all of this into a proper prompt that could be sent to a multimodal model). Any tips or guidance would help. Thank you!

    • @fahdmirza
      @fahdmirza  8 หลายเดือนก่อน

      would have to check.

    • @nocode_fever
      @nocode_fever 7 หลายเดือนก่อน

      Same question

  • @NetZeroEarth
    @NetZeroEarth 9 หลายเดือนก่อน +4

    Can u provide the code use in github or on your website please?

    • @fahdmirza
      @fahdmirza  9 หลายเดือนก่อน +3

      Sure, I have put the link to code in video's description.

    • @NetZeroEarth
      @NetZeroEarth 9 หลายเดือนก่อน +4

      Thank you !!! 😊

  • @adityapatil6723
    @adityapatil6723 2 หลายเดือนก่อน

    sir i want to use "openai/whisper-large-v3-turbo" model but i cant find any tutorial on this

  • @TestAutomationTV
    @TestAutomationTV 2 หลายเดือนก่อน

    Why'd you use a giant model locally?

  • @hitthetone9635
    @hitthetone9635 8 หลายเดือนก่อน

    Im having difficulty with exporting the token. I think in Windows its done with "set" instead of "export", but it still doesnt accept this.

    • @fahdmirza
      @fahdmirza  8 หลายเดือนก่อน

      yes set or setx

  • @tillwill3232
    @tillwill3232 7 หลายเดือนก่อน

    Hi, does the free inference api work for custom/pivate models or do we need to use the paid endpoints? Thanks

    • @fahdmirza
      @fahdmirza  7 หลายเดือนก่อน

      I think there are some free credits available.

  • @ketan6182
    @ketan6182 5 หลายเดือนก่อน

    very often when i try to run code this way it does not run at all, it just sits blankly waiting for output... is there a solution to this significant waiting time? microsoft/Phi-3-vision-128k-instruct is the model i was using.

    • @saarza9991
      @saarza9991 3 หลายเดือนก่อน

      try running in parallel thread using async await

  • @joshuamickey1648
    @joshuamickey1648 3 หลายเดือนก่อน

    Hi Mirza,
    Can we do tool call through this HFInference API? Reply fast if possible.

    • @fahdmirza
      @fahdmirza  3 หลายเดือนก่อน

      yes you can if the model supports it.

  • @merakshot9277
    @merakshot9277 6 หลายเดือนก่อน

    i know you explained it but i want just to make sure how to know if a model is paid, or free, and does Inference API can be used for free like lifetime or it will stop one day

    • @merakshot9277
      @merakshot9277 6 หลายเดือนก่อน

      thank you for the video, and i will appreciate your reply

    • @innovatorshome
      @innovatorshome หลายเดือนก่อน

      @@merakshot9277 you need to pay for the endpoint

  • @loicnembot5927
    @loicnembot5927 6 หลายเดือนก่อน

    thanks

  • @dronnema203
    @dronnema203 4 หลายเดือนก่อน

    is that an ai agent??

    • @fahdmirza
      @fahdmirza  3 หลายเดือนก่อน

      No