Attention is all you need || Transformers Explained || Quick Explained

แชร์
ฝัง
  • เผยแพร่เมื่อ 26 พ.ย. 2024

ความคิดเห็น • 43

  • @LoneXeaglE
    @LoneXeaglE ปีที่แล้ว +4

    Everytime I need to remember key concepts in transformers I go back to this video. God bless you bro.

  • @akankshaaggarwal394
    @akankshaaggarwal394 หลายเดือนก่อน

    A very good and simplied video. Thank you.

  • @nicklam3594
    @nicklam3594 ปีที่แล้ว +2

    I cannot like this enough!!!!!! This channel is SOOO underrated

  • @Gank-SquadUK
    @Gank-SquadUK หลายเดือนก่อน

    This is really good man - Nice video and you've done a fantastic job explaining some very complex ideas.

  • @jessicahoffmann6278
    @jessicahoffmann6278 2 ปีที่แล้ว +5

    Impressively clear and easy to follow while still being precise!

  • @shravanshravan4402
    @shravanshravan4402 หลายเดือนก่อน

    Beautiful explanation brother!

  • @vil9386
    @vil9386 9 หลายเดือนก่อน

    This is very clear. I understood a lot through this video about transformers. Thank you.

  • @ihsanhariadi1056
    @ihsanhariadi1056 ปีที่แล้ว +1

    Thankyou, very clear visualization on the processes involved in AIAYN (Attention-Is-All-You-Need) Concept ...

  • @natureClipsHimalayan
    @natureClipsHimalayan ปีที่แล้ว

    best explanation of transformers ever, thank you 👍

  • @AliHamza-le1of
    @AliHamza-le1of 2 ปีที่แล้ว +1

    Very Nice Explation. Absolutely Excellent !!! Thanks.

  • @adokoka
    @adokoka ปีที่แล้ว +6

    @8:47 should be: the query (Q) comes from the decoder. The key (K) and value (V) come from the encoder.

    • @ivant_true
      @ivant_true ปีที่แล้ว

      Yep

    • @adscript4713
      @adscript4713 6 หลายเดือนก่อน

      So at 7:47, the encoder output should actually read Ke and Ve, right?

    • @adokoka
      @adokoka 6 หลายเดือนก่อน

      @@adscript4713, that is correct.

  • @ibrahimahmethan586
    @ibrahimahmethan586 ปีที่แล้ว

    You saved my day!
    Thank you so much!

  • @hansolo7516
    @hansolo7516 2 ปีที่แล้ว +1

    very easy to understand, nice job!

  • @23232323rdurian
    @23232323rdurian ปีที่แล้ว +2

    ? how about: ? or maybe ?

  • @fazelamirvahedi9911
    @fazelamirvahedi9911 ปีที่แล้ว

    Thank you for the informative video. I was wondering where can I find the image captioning video that you mentioned at the the of your video?

    • @DevelopersHutt
      @DevelopersHutt  ปีที่แล้ว

      th-cam.com/video/3e4hsHLDHZA/w-d-xo.htmlsi=9zsaiRaCKkmRLJEF

  • @drzobekenobe
    @drzobekenobe ปีที่แล้ว

    Brilliant 👏

  • @junaidiqbal5018
    @junaidiqbal5018 2 ปีที่แล้ว

    wow, well explained!

  • @LoneXeaglE
    @LoneXeaglE ปีที่แล้ว

    Such amazing work! thank you sir!

  • @JAINHEMENDRAH123
    @JAINHEMENDRAH123 2 ปีที่แล้ว

    Very well explained

  • @edelweiss7680
    @edelweiss7680 ปีที่แล้ว

    Hi there ! Excellent work thanks !
    But : at 5:06 should the PE vectors be APPENDING to the word embeddings and not ADDING ?

    • @DevelopersHutt
      @DevelopersHutt  ปีที่แล้ว +1

      Yes, correct. I will put a note in the description.
      Thanks❤

  • @ummara2020
    @ummara2020 10 หลายเดือนก่อน

    What tool you use for animations?

  • @karthikeyasharmaparunandi
    @karthikeyasharmaparunandi 10 หลายเดือนก่อน

    Thanks!

    • @DevelopersHutt
      @DevelopersHutt  10 หลายเดือนก่อน +1

      Thank you so much 🙏

    • @karthikeyasharmaparunandi
      @karthikeyasharmaparunandi 10 หลายเดือนก่อน

      @@DevelopersHuttKeep up the good work. Your short and to-the-point videos are unique and amazing!

  • @AlirezaGolabvand
    @AlirezaGolabvand ปีที่แล้ว

    Very Nice Job. can you please tell me what software you are using to make such amazing animated presentation? it will be very helpful.

  • @FreeMind-00x
    @FreeMind-00x ปีที่แล้ว

    In Attention Filter example, the dot product between query "WHY" and key "WHY" is 0, this seems not possible unless embedding of "Why" is 0.

  • @Dhirajkumar-ls1ws
    @Dhirajkumar-ls1ws ปีที่แล้ว

    👌

  • @sudhansubaladas2322
    @sudhansubaladas2322 2 ปีที่แล้ว

    Nice explanation... But, how embedding layer convert tokens into vectors representation? I guess if you could take an example and explain this then it will be helpful for those who are watching this video...

    • @DevelopersHutt
      @DevelopersHutt  2 ปีที่แล้ว

      Embedding layer learns the relationship between words.
      For more info: read about word2vec model.
      I'll definitely make videos about how it works in near future.

    • @sudhansubaladas2322
      @sudhansubaladas2322 2 ปีที่แล้ว +1

      @@DevelopersHutt Ok waiting for your video... My suggestion for you is that the description of the Transformer which you are giving is already available in writeup as well as videos. But viewers want to see an explanation using examples.. Like taking any sentence and then how things are happening.. but nice start..

  • @pontinhonoceu611
    @pontinhonoceu611 2 ปีที่แล้ว

    You are a badass