How to run Llama 3.1 (or) any LLM in Google Colab | Unsloth

แชร์
ฝัง
  • เผยแพร่เมื่อ 11 ม.ค. 2025

ความคิดเห็น • 4

  • @wilfredomartel7781
    @wilfredomartel7781 วันที่ผ่านมา +1

    Great video! what is the max input length for llama 3.1 ?

    • @HackersRealm
      @HackersRealm  วันที่ผ่านมา

      it's 128k if i remember correctly!!

  • @vetrivels505
    @vetrivels505 3 หลายเดือนก่อน +1

    hey the video is really helpful. i have an doubt can we able to use langchain to get the inference because in langchain there are output parser which are helpful for getting a desired output

    • @HackersRealm
      @HackersRealm  3 หลายเดือนก่อน

      @@vetrivels505 yes, you can definitely use it. Unsloth is just for faster inference and training compared to other libraries. If you don't worry about the speed, you can use any other module for inference