Chat with Llama-3 with HuggingFace & Build a chatbot with Gradio

แชร์
ฝัง
  • เผยแพร่เมื่อ 18 พ.ย. 2024

ความคิดเห็น • 12

  • @mustafadogruer3830
    @mustafadogruer3830 7 หลายเดือนก่อน +4

    You always keep up the updates. Thanks for the video!

    • @TirendazAI
      @TirendazAI  7 หลายเดือนก่อน

      You're welcome 😀

  • @mohammadsbeeh6131
    @mohammadsbeeh6131 4 หลายเดือนก่อน +1

    for me i didnt get same output as u when debuged prompt in 07:15

  • @dheenathsundararajan7225
    @dheenathsundararajan7225 4 หลายเดือนก่อน +1

    i did the exact ways u did brother..but the model takes a lot of time to generate the response..is there any possible fix?

  • @Alicornriderm
    @Alicornriderm 6 หลายเดือนก่อน

    Thanks for the tutorial! Is this actually running locally? If so, how did it download so quickly?

    • @TirendazAI
      @TirendazAI  6 หลายเดือนก่อน

      Yes, the model is running locally and for free. To download the model, you can use ollama.

    • @muhaiminhading3477
      @muhaiminhading3477 5 หลายเดือนก่อน

      @@TirendazAI hi, I have use ollama3 with this localhost port : 127.0.0.1:11434.
      but I am confusing, how to load the model with transformers ? so I can follow your step?

  • @thetanukigame3289
    @thetanukigame3289 6 หลายเดือนก่อน

    Thank you for the great video. It was really helpful for getting everything set up. If I may ask, I have a 4090 graphics card and I can this maxing out my GPU usage so the cuda should be working correctly. However, my prompts when asked take anywhere between 20s and 2 minutes to return and after a few questions the chatbot stops responding at all and just stays processing. Is this normal?

    • @TirendazAI
      @TirendazAI  6 หลายเดือนก่อน

      Which large model do you use? If you're using llama-3:70B, I think it's normal.

  • @VincentTang-tn1bi
    @VincentTang-tn1bi 3 หลายเดือนก่อน

    It seems the chatbot will not answer before checking the history🤔

  • @BattlerUshiromiya01
    @BattlerUshiromiya01 4 หลายเดือนก่อน

    Does this work on mac with m2 too?