New LLM-Quantization LoftQ outperforms QLoRA

แชร์
ฝัง
  • เผยแพร่เมื่อ 28 ก.ย. 2024

ความคิดเห็น • 13

  • @akashkarnatak6581
    @akashkarnatak6581 11 หลายเดือนก่อน +6

    I don't actively look out of new research papers but your channel keeps me updated with the hot trending updates in the field. I love this channel and thank you for uploading awesome content.

  • @AaronALAI
    @AaronALAI 11 หลายเดือนก่อน +1

    Great video, I'm interested in trying this out, im curious how it compaes to exllama2. Since exl2 is llama only, it would be nice to see a better optimized qlora for other models.

  • @stephennfernandes
    @stephennfernandes 11 หลายเดือนก่อน

    is the same as QA LORA ?

  • @tuozhao6451
    @tuozhao6451 11 หลายเดือนก่อน +2

    Thank you for sharing our paper. 👍

  • @hussainshaik4390
    @hussainshaik4390 11 หลายเดือนก่อน +1

    looks like this method is simpler than QLora which does something like double quantization

  • @shubhamsahay7410
    @shubhamsahay7410 9 หลายเดือนก่อน

    Really loving all of your videos, just one request. can you please share the slides you prepare so we can refer it whenver required for quick revision. Thanks so much for great content.

  • @akeshagarwal794
    @akeshagarwal794 11 หลายเดือนก่อน

    Hello, i would love to see the explanation of LoftQ like you explained QLoRA.

  • @suyashchougule5358
    @suyashchougule5358 9 หลายเดือนก่อน

    I understood What is LoftQ, But what will be the difference in LoftQ & QLoRA ?

    • @akeshagarwal794
      @akeshagarwal794 9 หลายเดือนก่อน

      Yeah same confusion

    • @tuozhao6451
      @tuozhao6451 9 หลายเดือนก่อน

      LoftQ = Quantization optimized for LoRA + Better LoRA Adaptor initialization + LoRA fine-tuning vs. QLoRA = Regular Quantization + Regular LoRA fine-tuning

  • @Summersault666
    @Summersault666 11 หลายเดือนก่อน +2

    Low rank actually increases the inference time, instead of reducing,but reduces trainable parameters

    • @sadaisystems
      @sadaisystems 11 หลายเดือนก่อน +3

      Not after merging with the base model

    • @Summersault666
      @Summersault666 11 หลายเดือนก่อน +1

      @@sadaisystems in that case remains the same. In the video he mentioned a decrease in time.