Here is how Transformers ended the tradition of Inductive Bias in Neural Nets

แชร์
ฝัง
  • เผยแพร่เมื่อ 29 ก.ย. 2024

ความคิดเห็น • 19

  • @TP-ct7qm
    @TP-ct7qm 9 หลายเดือนก่อน +4

    Awesome video! This (together with the last two videos) is one of the best explanations of Transformers I've seen. Thanks and keep it up!

  • @hieunguyentranchi947
    @hieunguyentranchi947 8 หลายเดือนก่อน +4

    This is gold I hope it gets the ATTENTION it deserves

    • @avb_fj
      @avb_fj  8 หลายเดือนก่อน +1

      Thanks!! More attention will surely TRANSFORM this channel! 😂

  • @joaogabrielfernandeszenobi3752
    @joaogabrielfernandeszenobi3752 7 วันที่ผ่านมา

    Incredible series, helped me a lot.

  • @sahhaf1234
    @sahhaf1234 8 หลายเดือนก่อน +2

    I really dont like to leave you a like. Instead, I want to leave you one hundred likes.. Unfortunately google limits me to one...

    • @avb_fj
      @avb_fj  8 หลายเดือนก่อน

      Thanks!! Super appreciated!

  • @GabrielAnguitaVeas
    @GabrielAnguitaVeas 5 หลายเดือนก่อน +1

    Thank you!

  • @JasFox420
    @JasFox420 9 หลายเดือนก่อน +3

    Dude, you are a treasure, keep it up!

  • @AI_ML_DL_LLM
    @AI_ML_DL_LLM 9 หลายเดือนก่อน +2

    the gist of this video: 4:29, a great job, thanks

  • @user-wm8xr4bz3b
    @user-wm8xr4bz3b 3 หลายเดือนก่อน

    at 2:33, you mentioned that self-attention is more biased, but at 2:54 you also mentioned that self-attention reduces inductive bias?? Sorry but i'm a bit confused.

    • @avb_fj
      @avb_fj  3 หลายเดือนก่อน

      Self-Attention indeed reduces inductive bias and adopts a more general learning framework. At 2:33, I am asking a question: "IS Self-Attention more general or more biased?" And then I continue with "I'll argue that Self-Attention is not only more general than CNNs and RNNs but even more general than MLP layers".

  • @axe863
    @axe863 วันที่ผ่านมา

    Should have a hybrid structure ...... 😅

    • @avb_fj
      @avb_fj  วันที่ผ่านมา

      This is true. Many computer vision research has now moved into adding elements of CNNs/inductive bias into the Vision Transformer architecture, for example - Swin Transformers.

  • @IdPreferNot1
    @IdPreferNot1 5 หลายเดือนก่อน +1

    Came here after interest from one blue three brown. It's clear you've got a great explanation style... plus you were earlier ;). Hope your channel following builds to match your outstanding quality.

    • @avb_fj
      @avb_fj  5 หลายเดือนก่อน

      Welcome! Thanks a lot for the shoutout!

  • @matiasalonso6430
    @matiasalonso6430 9 หลายเดือนก่อน +1

    Congrats !! Awesome channel !

    • @avb_fj
      @avb_fj  9 หลายเดือนก่อน

      Thanks!

  • @amoghjain
    @amoghjain 9 หลายเดือนก่อน

    wowww! what a great explanation! helps knit so many individual concepts together in one cohesive knowledge base!! thanks a lot for making this video and all the animations!

    • @avb_fj
      @avb_fj  9 หลายเดือนก่อน

      Thanks!!