Transformers demystified: how do ChatGPT, GPT-4, LLaMa work?

แชร์
ฝัง
  • เผยแพร่เมื่อ 18 ม.ค. 2025

ความคิดเห็น • 34

  • @deter3
    @deter3 11 หลายเดือนก่อน +4

    for the past 1 year , the best transformers explanation video and fine tune video I have ever seen . You have the talent to make things easier to comprehensive . thank you !!!

  • @patriot-q3u
    @patriot-q3u 10 หลายเดือนก่อน +2

    thank you, I was involved with NLP back in the dark ages (pre-2017). your vids helped me connect the dots between what I knew and modern practice. thanks for sharing your expertise. cheers!

    • @NoobTube4148
      @NoobTube4148 10 หลายเดือนก่อน

      Same here, did some research in 2011/2012 … wish I stayed with it now. Lol

  • @AbhishekShivkumar-ti6ru
    @AbhishekShivkumar-ti6ru 10 หลายเดือนก่อน +1

    The single video one needs to watch to understand literally every computation! Thanks a lot.

  • @AllaZhdan
    @AllaZhdan 10 หลายเดือนก่อน

    I like your style of representing information! Thank you for making intake into Community. We'll share this video with our ML/AI community on Discord for sure.

  • @Sarah-ku4hg
    @Sarah-ku4hg 11 หลายเดือนก่อน +1

    Please do more videos like this. It's amazing. Can't wait to see more🥰

  • @RanjeetSingh-pp4uu
    @RanjeetSingh-pp4uu 10 หลายเดือนก่อน

    Thank you so much for the in-depth explanation.

  • @jonathanc.7984
    @jonathanc.7984 10 หลายเดือนก่อน +1

    Such an amazing video! Thanks for your work! Would you mind sharing your excalidraw ?

  • @aminekidane5757
    @aminekidane5757 5 หลายเดือนก่อน

    Great video! waiting for the benefits of using past_key_values and transformer tools on fine tuning

  • @ravindra1607
    @ravindra1607 4 หลายเดือนก่อน

    The best explanatios , your channel is a gem ❤

  • @shaxy6689
    @shaxy6689 9 หลายเดือนก่อน +1

    Can you explain the Decoder-only Transformers Training vs Inference, I saw the encoder-decoder but in decoder only we don't have the cross attention so I'm little confuesd. Thanks a lot
    + can you please share the excalidraw diagram it would really help also for the encoder-decoder vid, pls pls pls

  • @zeelthumar
    @zeelthumar 11 หลายเดือนก่อน

    This video is gold standard....If can upload excalidraw diagram it would be great.

  • @theindianrover2007
    @theindianrover2007 9 หลายเดือนก่อน +1

    Please create more indepth videos like this on LoRA, QLoRA, RAG etc

  • @SergeBenYamin
    @SergeBenYamin 7 หลายเดือนก่อน

    Hi, why attention mask is added to the attn weights instead of multiplied (1h00:11)? if you add the attention weight with zero the weights will not be ignored

  • @dhirajkumarsahu999
    @dhirajkumarsahu999 9 หลายเดือนก่อน

    Thanks for your efforts, helped a lot

  • @RicardoMlu-tw2ig
    @RicardoMlu-tw2ig 4 หลายเดือนก่อน

    is there any way to get the whole graph you've drawn?😀

  • @vincenrow7190
    @vincenrow7190 2 หลายเดือนก่อน

    the best, thank u so much

  • @eraydikyologlu2698
    @eraydikyologlu2698 10 หลายเดือนก่อน

    Can you share the template you drew, please?
    Thank you for the video. It is awesome.

  • @baivabmukhopadhyay8970
    @baivabmukhopadhyay8970 11 หลายเดือนก่อน

    Thank you so much for this video. It helped me a lot 💓

  • @hamadirabie4500
    @hamadirabie4500 11 หลายเดือนก่อน

    Thanks for this amazing explanation!! can you please share the draw from excalidraw ?

  • @praneethkrishna6782
    @praneethkrishna6782 6 หลายเดือนก่อน

    I am new to this, I am just trying to understand if this during Inference or Training. I guess it is during Inference. please correct me

  • @itsm0saan
    @itsm0saan 11 หลายเดือนก่อน

    Thanks so much for the coooool videos. I appreciate the efforts. wondering if you can share the excalidraw notes.

  • @nikhilgupta5159
    @nikhilgupta5159 11 หลายเดือนก่อน

    Are Values added to attention weights or the operation is matrix multiplication?

    • @NielsRogge
      @NielsRogge  11 หลายเดือนก่อน +1

      The attention weights are multiplied by the values, in order to produce the attention output.

  • @markomekjavic
    @markomekjavic 10 หลายเดือนก่อน

    Thank you for this amazing explanation - is there pr chance a way to share your diagram :)

  • @Actors_Of_Multiverses
    @Actors_Of_Multiverses 11 หลายเดือนก่อน

    I am curious how did you run the gpt2 locally. I cloned the repo, and I added the root of transformers to the path. Then it starts to run the test code but the changes - like print statements in the original gpt2 code do not show up.

    • @NielsRogge
      @NielsRogge  11 หลายเดือนก่อน +2

      Hi, you can do that by doing pip install -e . (the -e flag is short for "editable"). See the details here: huggingface.co/docs/transformers/en/installation#editable-install

    • @peaceout-sd8qu
      @peaceout-sd8qu 11 หลายเดือนก่อน

      Awesome thanks @NeilsRogge, I will try it and look at the link

  • @msfasha
    @msfasha 10 หลายเดือนก่อน

    Brilliant

  • @nikhilgupta5159
    @nikhilgupta5159 11 หลายเดือนก่อน

    Super Video!!! Haven't seen a better video on explaining transformers...Any chance that you could upload the excali file for us?

  • @toxicbisht4344
    @toxicbisht4344 11 หลายเดือนก่อน

    another banger

  • @robosergTV
    @robosergTV 11 หลายเดือนก่อน

    your vids rock

  • @gstiwari
    @gstiwari 8 หลายเดือนก่อน

    Just woderful. My search ends.