How to fine tune LLM | How to fine tune Chatgpt | How to fine tune llama3

แชร์
ฝัง
  • เผยแพร่เมื่อ 27 ม.ค. 2025

ความคิดเห็น •

  • @shourav2368
    @shourav2368 4 วันที่ผ่านมา

    This is the best channel for learning cs ❤❤

    • @UnfoldDataScience
      @UnfoldDataScience  4 วันที่ผ่านมา

      Thanks a lot - please share with friends as well.

  • @paulaugustus4671
    @paulaugustus4671 18 วันที่ผ่านมา

    Thanks for the amazing video.

  • @KumR
    @KumR 21 วันที่ผ่านมา

    Hi Aman . Do u mean during back propagation some weights are ignored using sokething like no grad?

    • @ARkhan-xw8ud
      @ARkhan-xw8ud 20 วันที่ผ่านมา +2

      Hmmm yes during back propagation in transformer some weights are ignored and to solve this problem they come up with learning parameters

    • @UnfoldDataScience
      @UnfoldDataScience  19 วันที่ผ่านมา

      Are you asking about LoRa or something else that we discussed in video

  • @suryaravi3907
    @suryaravi3907 21 วันที่ผ่านมา

    Why get_peft_model is not used in the trainer model parameter?

  • @AsheeshKumar-w3n
    @AsheeshKumar-w3n 18 วันที่ผ่านมา

    Thank you Sir!
    I really like the way you simplify these complex concepts.
    For in depth future videos, I would request to go in deep which is commonly used in the industry project.❤

  • @abkk2460
    @abkk2460 19 วันที่ผ่านมา

    Sir Thank you for the helpful explanation. Looking forward to more detail WRT Azure Open AI. Tnxs

  • @ARkhan-xw8ud
    @ARkhan-xw8ud 20 วันที่ผ่านมา +2

    LORA stands for Low Rank Adaption

  • @madial382
    @madial382 12 วันที่ผ่านมา

    can u make full llm serice

    • @UnfoldDataScience
      @UnfoldDataScience  12 วันที่ผ่านมา

      Many videos are coming please press bell icon to get all notifications

  • @akshaymahajan7971
    @akshaymahajan7971 21 วันที่ผ่านมา

    I wanted to reach you sir what is the procedure for that

    • @UnfoldDataScience
      @UnfoldDataScience  21 วันที่ผ่านมา

      You can email me. Email id in channel page.

  • @DarkLord79799
    @DarkLord79799 12 วันที่ผ่านมา

    Don't use simple dataset, use atleats have 2 to 4 features like instruction, input, output, for finetunning llm it's help a lot

    • @UnfoldDataScience
      @UnfoldDataScience  12 วันที่ผ่านมา

      Many thanks for watching, sure will do

  • @soumyanath5595
    @soumyanath5595 14 วันที่ผ่านมา

    Planning to fine tune GPT 2 small LLM model (145 million parameters.)
    Will a laptop consisting of i5 13th Gen and Nvidia RTX 3050 6GB Graphics card, able to do all this task

    • @UnfoldDataScience
      @UnfoldDataScience  6 วันที่ผ่านมา +1

      Use small batch sizes and gradient accumulation.
      Enable mixed-precision training (FP16) with libraries like PyTorch (torch.cuda.amp).

  • @AsheeshKumar-w3n
    @AsheeshKumar-w3n 18 วันที่ผ่านมา

    Thank you Sir!
    I really like the way you simplify these complex concepts.
    For in depth future videos, I would request to go in deep which is commonly used in the industry project.❤

    • @UnfoldDataScience
      @UnfoldDataScience  18 วันที่ผ่านมา

      Thanks a lot - many videos on similar topics are on the way. Just ensure you press the bell icon