ไม่สามารถเล่นวิดีโอนี้
ขออภัยในความไม่สะดวก

Mistral 7B Function Calling with Ollama

แชร์
ฝัง
  • เผยแพร่เมื่อ 19 ส.ค. 2024
  • In this video, we're going to learn how to do function calling with the latest Mistral 7B model, which has been fine tuned for just that purpose.
    #mistralai #llms #functioncalling
    Code - github.com/mne...
    Mistral - ollama.com/lib...
    Ollama - ollama.com/

ความคิดเห็น • 6

  • @not_a_human_being
    @not_a_human_being หลายเดือนก่อน +1

    Well done Mark, keep doing content like this, we surely need it. Refreshing clarity! Genuinely struggling with some other tutorials!

  • @OwnOpinions
    @OwnOpinions 2 หลายเดือนก่อน +2

    Here we are achieving function calling with prompt engineering, which is less effective compared to the LLM that has inbuilt function calling. May be fine tuning with functions data on a model may be more effective!

  • @user-rp2vv5oq6e
    @user-rp2vv5oq6e 2 หลายเดือนก่อน

    There is a quantized version of mistral 7b v 0.3 on hugging face.

    • @user-rp2vv5oq6e
      @user-rp2vv5oq6e 2 หลายเดือนก่อน

      ollama rm mistral
      And then ollama run mistral
      This will automatically download mistral V0.3 quantized version

    • @learndatawithmark
      @learndatawithmark  2 หลายเดือนก่อน +1

      Yeh I saw that. I want to compare the quantised model with the non quantised one to see how much (if any) difference there is in how they behave