Kolmogorov-Arnold Networks: MLP vs KAN, Math, B-Splines, Universal Approximation Theorem

แชร์
ฝัง

ความคิดเห็น • 127

  • @josephamess1713
    @josephamess1713 6 หลายเดือนก่อน +87

    The fact this video is free is incredible

    • @umarjamilai
      @umarjamilai  6 หลายเดือนก่อน +9

      You're welcome 🤗

  • @edsonjr6972
    @edsonjr6972 6 หลายเดือนก่อน +16

    Your videos are literally the only ones with 1hr+ I would ever watch on TH-cam. Keep going mate, extremely high quality content 👏🏽👏🏽

  • @nokts3823
    @nokts3823 6 หลายเดือนก่อน +6

    Thanks a lot for making this accessible for people outside the field, for which reading and understanding these papers is quite tough. Thanks to you I'm able to stay slightly more up to date with the crazy quick developments in ML!

  • @kashingchoi564
    @kashingchoi564 หลายเดือนก่อน +2

    Thank you for bringing me into the world of neural network. Your videos always make difficult topics become easier by interconnecting relevant concepts that greatly enhance the understanding to follow your mindset. I hope I can learn more knowledge from you and apply them into my life goal some day.

  • @franciscote-lortie8680
    @franciscote-lortie8680 6 หลายเดือนก่อน +3

    Incredibly clear explanations, the flow of the video is also really smooth. It’s almost like you’re telling a story. Please keep making content!!

  • @mohamedalansary2542
    @mohamedalansary2542 6 หลายเดือนก่อน +15

    Clearly explained and very valuable content as always Umar. Thank you!

  • @MrNathanShow
    @MrNathanShow 6 หลายเดือนก่อน +3

    The intro of a basic linked up linear layers was so well done and really makes this introduction friendly!

  • @BooleanDisorder
    @BooleanDisorder 4 หลายเดือนก่อน +1

    I love that this research area develops fast enough that we need dedicated channels to explain new developments.

  • @manumaminta6131
    @manumaminta6131 6 หลายเดือนก่อน +2

    Your videos help me (a grad student) really understand difficult, often abstract concepts. Thank you so much... I'll always support your stuff!

  • @AdmMusicc
    @AdmMusicc 5 หลายเดือนก่อน +3

    You're on a mission to make the best and friendliest content to consume deep learning algorithms and I am all in for it.

  • @goldentime11
    @goldentime11 5 หลายเดือนก่อน +3

    Thanks Umar for such a wonderful tutorial! I've been eyeing this paper for a while!

  • @xl0xl0xl0
    @xl0xl0xl0 5 หลายเดือนก่อน +4

    Wow this was a super clear an on-point explanation. Thank you, Umar.

  • @luigigiordanoorsini5980
    @luigigiordanoorsini5980 5 หลายเดือนก่อน +1

    Ho appena letto la piccola bio del tuo canale, spero di non essere offensivo dicendo che adesso capisco perché il tuo ottimo inglese mi sembrasse comunque molto familiare.
    Ad ogni modo ti ringrazio enormemente per il tuo contributo hai spiegato tutta la teoria in un modo, a mio avviso, estremamente chiaro e soprattutto coinvolgente.
    Ti prego continua così, di nuovo un enorme grazie e complimenti per il tuo contributo alla scienza

    • @umarjamilai
      @umarjamilai  5 หลายเดือนก่อน +1

      Grazie a te per aver visitato il mio canale! Spero di pubblicare più spesso, anche se per fare contenuti di qualità ci vogliono settimane di studio e preparazione. In ogni caso, spero di rivederti presto! Buon weekend

    • @luigigiordanoorsini5980
      @luigigiordanoorsini5980 5 หลายเดือนก่อน

      @@umarjamilai Avevi già guadagnato un iscritto adesso hai guadagnato un fan.
      Ahahahahah

  • @brandonheaton6197
    @brandonheaton6197 5 หลายเดือนก่อน +1

    Best explanations of splines i have seen. Legit 100%

  • @bensimonjoules4402
    @bensimonjoules4402 5 หลายเดือนก่อน +1

    Amazing content, thanks! I'm very excited about the continual learning properties of these networks.

  • @Adityagupta-vk9um
    @Adityagupta-vk9um 3 หลายเดือนก่อน +1

    i don't comment on YT but man oh man, this man is love. Too good of an explanation.

  • @AlpcanAras
    @AlpcanAras 6 หลายเดือนก่อน +2

    This is life changing, in my opinion. Thank you for the efforts on the videos!

  • @cavidanabdullayev4533
    @cavidanabdullayev4533 หลายเดือนก่อน

    It is a amazing resource for KANs. Thank you so much 🙂

  • @stacks_7060
    @stacks_7060 6 หลายเดือนก่อน +1

    One of the best math videos I’ve watched on TH-cam

  • @MirjanOffice
    @MirjanOffice 6 หลายเดือนก่อน +1

    Hello Umar, this video is my best birthday gift I have ever received, thanks a lot :)

  • @JONK4635
    @JONK4635 6 หลายเดือนก่อน +1

    Extremely clear explanation and content here! Very helpful. I am happy that you came from PoliMI as well :) keep it up!

  • @نشامي
    @نشامي 6 หลายเดือนก่อน +1

    What funny, is that i predicted your next video will be on KAN, after i see you in github.
    I WILL WATCH THIS VIDEO, AS I FEEL THIS WILL BE THE FUTURE OF NEUR NETWORK, THANK YOU FOR YOUR WORK AND CONTENT ❤

  • @MuhammadrizoMarufjonov-os5fv
    @MuhammadrizoMarufjonov-os5fv 6 หลายเดือนก่อน +6

    Thanks for including prerequisites

  • @anirudh514
    @anirudh514 6 หลายเดือนก่อน +4

    Thanks for the crystal clear explaination!!

  • @johanvandermerwe7687
    @johanvandermerwe7687 6 หลายเดือนก่อน +1

    I saw this paper on papers with code, and thought to myself I wonder if Umar Jamil will cover this.
    Thanks for your effort and videos!

  • @andreanegreanu8750
    @andreanegreanu8750 5 หลายเดือนก่อน +1

    Very clear, well explained, top notch!

  • @zaevi6855
    @zaevi6855 6 หลายเดือนก่อน

    crazy that it took me an hr video to understand that its the (control points) being trained on the spline graph vs weights with MLPs and CNNs, thank you!

  • @mychan-lu5iv
    @mychan-lu5iv 23 วันที่ผ่านมา +1

    Amazing! Thank you very much for this.

  • @balachanders6350
    @balachanders6350 4 หลายเดือนก่อน

    Great explanation and underrated also waiting for "Implementation of KAN from scratch" video

  • @lethnisoff
    @lethnisoff 6 หลายเดือนก่อน +1

    Your explanations are the best, thank you so much😘🤗

  • @zzduo-w2p
    @zzduo-w2p หลายเดือนก่อน +1

    Thank you for your excellent explainations
    🤩🤩🤩🤩

  • @MuhammadMuzzamil-ki4he
    @MuhammadMuzzamil-ki4he 6 หลายเดือนก่อน +1

    Thank you for such great and detailed explanation.

  • @jeunjetta
    @jeunjetta 6 หลายเดือนก่อน +2

    I think KAN will be the catalist of a significant tipping point in science.
    I want to apply this to power system grids and replace existing dynamic models with ones made from PMU data using KAN

  • @seelowst
    @seelowst 6 หลายเดือนก่อน

    Having a such good teacher is so adorable, i wish i could be your students.

    • @umarjamilai
      @umarjamilai  6 หลายเดือนก่อน +1

      哪里哪里啊,谢谢你的赞成!

    • @seelowst
      @seelowst 6 หลายเดือนก่อน

      @@umarjamilai 太棒了,您还会中文👍

    • @umarjamilai
      @umarjamilai  6 หลายเดือนก่อน +1

      @@seelowst 我就是刚刚从中国来的,在中国主了4年了,现在回欧洲了。

    • @seelowst
      @seelowst 6 หลายเดือนก่อน

      @@umarjamilai 我从没离开过我的城市,我希望像您一样👍

  • @ScottzPlaylists
    @ScottzPlaylists 6 หลายเดือนก่อน +2

    High quality explanations.. Thanks.

  • @ChadieRahimian
    @ChadieRahimian 4 หลายเดือนก่อน

    Thanks for the amazing explanation!

  • @artaasadi9497
    @artaasadi9497 5 หลายเดือนก่อน +1

    that is very useful, informative and interesting! Thanks a lot!

  • @coolkaran1234
    @coolkaran1234 6 หลายเดือนก่อน +2

    You are savior, without you mortals like me would be lost in the darkness!!!

  • @paolobarbieri7483
    @paolobarbieri7483 5 หลายเดือนก่อน +1

    Thank you for what you do, you are amazing.

  • @odysy5179
    @odysy5179 5 หลายเดือนก่อน +2

    Fantastic explanation!

  • @harveyp.1949
    @harveyp.1949 3 หลายเดือนก่อน +1

    Awesome explanation!!!

  • @ozgunsungar9370
    @ozgunsungar9370 5 หลายเดือนก่อน +1

    awesome, easy to follow even person dont know anything :)

  • @howardmeng256
    @howardmeng256 6 หลายเดือนก่อน +2

    Amazing video! Thanks a lot !

  • @vaadewoyin
    @vaadewoyin 6 หลายเดือนก่อน +1

    Cant wait to watch this, saved! Will comment again when i actually watch it..😅

  • @subhamkundu5043
    @subhamkundu5043 6 หลายเดือนก่อน

    Hey @Umar, great content as always. Looking forward to a KAN implementation video from scratch. Also I think in 31:01 there is a minor language mistake. I think it will be for using a quadratic Bspline curve rather than quadratic Bezier curve

  • @prathamshah2058
    @prathamshah2058 6 หลายเดือนก่อน +1

    Thank-you so much for explaining the paper, it is so easy to understand now, btw can you also make a hands on video with the kan package developed by mit which is based off pytorch.

  • @ashithen1833
    @ashithen1833 3 หลายเดือนก่อน +1

    Much Thanks for this video

  • @ansonlau7040
    @ansonlau7040 5 หลายเดือนก่อน +1

    Thankyou Jamil, what a cool video

  • @MasoudAminzadeh
    @MasoudAminzadeh หลายเดือนก่อน +1

    It was fantastic. continue my friend.

  • @GUANGYUANPIAO
    @GUANGYUANPIAO 5 หลายเดือนก่อน +1

    awesome explanation

  • @Lilina3456
    @Lilina3456 3 หลายเดือนก่อน +1

    You are amazing, thank you!

  • @ezl100
    @ezl100 6 หลายเดือนก่อน

    thanks Umar. Very nice explanation. Just 2 questions :
    1 - Does it mean we can specify different knots per edge?
    2 - I am not understanding how the backpropagation will work. Let's say we calculate the gradient from h1. It will update phi 1,1 and phi 1,2 but how the learning process will impact the knots to the desired value?

  • @arupsankarroy8722
    @arupsankarroy8722 6 หลายเดือนก่อน +2

    Sir, you are great..💙💙

  • @filippobargagna
    @filippobargagna 6 หลายเดือนก่อน +1

    Thank you so so much for this amazing content.

  • @anmolmittal9
    @anmolmittal9 5 หลายเดือนก่อน +1

    This is really great! Power to you!!🚀

  • @wolfie6175
    @wolfie6175 5 หลายเดือนก่อน +1

    Good video, quality content.

  • @enricovompa1876
    @enricovompa1876 6 หลายเดือนก่อน +2

    Thank you for making this video!

  • @RiteshBhalerao-wn9eo
    @RiteshBhalerao-wn9eo 5 หลายเดือนก่อน +1

    Amazingg explanation !

  • @JuliusSmith
    @JuliusSmith 5 หลายเดือนก่อน

    Excellent video, thanks! At the end, I _really_ wanted to see an illustration of the relatively "non-local" adaptation of MLP weights. Can that be found somewhere?

  • @binfos7434
    @binfos7434 3 หลายเดือนก่อน

    Amazing! Just wanted to ask if I should expect an implementation of this concept on this channel?

  • @pabloe1802
    @pabloe1802 6 หลายเดือนก่อน

    An implementation video will be awesome

  • @kmalhotra3096
    @kmalhotra3096 5 หลายเดือนก่อน +1

    Hats off, what an awesome video!!!

  • @ntej7927
    @ntej7927 4 หลายเดือนก่อน +1

    Excellent.

  • @Kishan31468
    @Kishan31468 6 หลายเดือนก่อน +1

    Thanks man. Next xLSTM please.

  • @faiqkhan7545
    @faiqkhan7545 6 หลายเดือนก่อน +1

    Umar bhai you the great

  • @RomanLi-y9c
    @RomanLi-y9c 5 หลายเดือนก่อน +1

    This is awesome!

  • @girandoconandrea
    @girandoconandrea 2 หลายเดือนก่อน

    Ciao Umar. Innanzitutto grazie mille del tuo lavoro, sei una fonte di conoscenza infinita per come esponi gli argomenti.
    Ho seguito interamente questo video ed ho dei dubbi. All'inizio, quando introduci le b-splines si parla di control point in quanto punti che vengono dati come input e per i quali viene creata una curva che passa vicina ad essi secondo la base function. Successivamente, quando viene introdotto il network, si dice che ad essere trainate sono le funzioni ed in particolare i control points. Cosa vuol dire questo? I control points non sono gli input che diamo al modello e quindi i nostri dati che vogliamo approssimare ad una funzione?
    Sarei grato se mi chiarissi questo concetto.
    Grazie mille e buon lavoro :)

    • @umarjamilai
      @umarjamilai  2 หลายเดือนก่อน

      L'unico parametro che definisci è il numero di control point (che ne determina la granularità, ovvero quanto "precisa" deve essere l'interpolazione). Compito di una rete neurale è "apprendere" i parametri di una funzione complessa per ridurre una funzione di costo (loss function). Quali sono i parametri che si allenano? La posizione dei control point, non il loro numero, che invece è deciso a priori.
      È come quando cerchi di interpolare dei punti usando un polinomio: prima scegli il grado del polinomio (quante potenze della X), poi usando un qualche algoritmo "alleni" i coefficienti di ciascuna potenza.
      Spero ora sia più chiaro

  • @mohamedessam3154
    @mohamedessam3154 2 หลายเดือนก่อน

    Thanks for the video.
    For the first feature x0,1 we have 5 features for the same input x0,1 how the output is going to be different although they used the same input, grid size, degree and knot vector?

  • @rohitjindal124
    @rohitjindal124 6 หลายเดือนก่อน

    Sir I have been a huge fan of your videos and have watched all of them . I am currently in my second year BTech and really passionate about learning ml sir if possible can work under you I don’t want any certificate or anything just want to see observe and learn

  • @sergiorego6321
    @sergiorego6321 6 หลายเดือนก่อน +1

    Phenomenal! Thank you :)

  • @dhackmt
    @dhackmt 5 หลายเดือนก่อน +1

    i loved it sir .

  • @imanghotbi4651
    @imanghotbi4651 3 หลายเดือนก่อน

    Is the explicit form of the obtained functions accessible after training the model and performing L-1 regularization?
    Is there a repository and code for it already?

  • @hajaani6417
    @hajaani6417 6 หลายเดือนก่อน +1

    You’re fantastic, mate.

  • @satviknaren9681
    @satviknaren9681 6 หลายเดือนก่อน +1

    Please do post more ! please do more videos !

  • @samadeepsengupta
    @samadeepsengupta 6 หลายเดือนก่อน +2

    Great Content !!

  • @AkhoNdlodaka
    @AkhoNdlodaka 6 หลายเดือนก่อน +1

    THANK YOU

  • @danielegiunchi9741
    @danielegiunchi9741 6 หลายเดือนก่อน +1

    brilliant video!

  • @p4ros960
    @p4ros960 5 หลายเดือนก่อน +1

    bruh so good. Keep it up!

  • @plutophy1242
    @plutophy1242 5 หลายเดือนก่อน +1

    this video is so amazing!!!!!!!

  • @fatemeshams9758
    @fatemeshams9758 5 หลายเดือนก่อน +1

    awesome👍

  • @daleanfer7449
    @daleanfer7449 6 หลายเดือนก่อน +1

    刚好期盼这个!

    • @umarjamilai
      @umarjamilai  6 หลายเดือนก่อน

      期待你的评价😇

    • @daleanfer7449
      @daleanfer7449 6 หลายเดือนก่อน +1

      ❤很好的内容,有考虑做inverse rl的内容吗❤

  • @routerfordium
    @routerfordium 6 หลายเดือนก่อน

    Thank you for the great video! Can you (or anyone) help understand why you need to introduce the basis functions b(x) in the residual activation functions?

  • @RudraPratapDhara
    @RudraPratapDhara 6 หลายเดือนก่อน +2

    Could you please next explain multi modal llms, techniques like Llava, llava plus, llava next?

    • @Patrick-wn6uj
      @Patrick-wn6uj 6 หลายเดือนก่อน +1

      I waiting for that day too

    • @umarjamilai
      @umarjamilai  3 หลายเดือนก่อน

      Check my latest video!

    • @RudraPratapDhara
      @RudraPratapDhara 3 หลายเดือนก่อน

      @@umarjamilai Yeah checking out, your are as usual the G.O.A.T

  • @bzzzzz1736
    @bzzzzz1736 6 หลายเดือนก่อน +1

    thank you

  • @fouziaanjums6475
    @fouziaanjums6475 6 หลายเดือนก่อน +1

    Hi, can you please make a video on multimodal LLMs, fine tuning it for custom dataset...

    • @umarjamilai
      @umarjamilai  3 หลายเดือนก่อน

      Check my latest video!

  • @ai__76
    @ai__76 6 หลายเดือนก่อน +1

    amazing

  • @willpattie581
    @willpattie581 6 หลายเดือนก่อน

    One thing I didn’t catch: how are the functions tuned? If each function consists of points in space and we move around the points to move the B spline, how do we decide to move the points? Doesn’t seem like backprop would work in the same way.

    • @umarjamilai
      @umarjamilai  6 หลายเดือนก่อน +1

      The same way we move weights for MLPs: we calculate the gradient of the loss function w.r.t the parameters of these learnable functions and change them in the opposite direction of the gradient. This is how you reduce the loss.
      We are still doing backpropagation, so nothing changed on that front compared to MLPs.

  • @MrAloha
    @MrAloha 6 หลายเดือนก่อน +2

    Wow! 🙏

  • @グワ氏
    @グワ氏 5 หลายเดือนก่อน

    There are continuous but indiferable points in the spline, right? What are you going to do?

  • @akramsalim9706
    @akramsalim9706 6 หลายเดือนก่อน +1

    awesome bro.

  • @Engrbilal143
    @Engrbilal143 6 หลายเดือนก่อน

    Time to implement it

  • @jeremykothe2847
    @jeremykothe2847 6 หลายเดือนก่อน

    fwiw I took a MLP solution for MNIST, substituted KAN for the MLP layers and no matter what I did (adding dimensions etc) it couldn't solve it. My intuition is that KANs only work well for approximating linear-ish functions, not irregular, highly discontinuous ones like image classification would need. But perhaps I just screwed it up :D

    • @haowu7916
      @haowu7916 4 หลายเดือนก่อน

      It seems that the results can not be improved on the mnist dataset but show less parameters, maybe the best senario for KAN is what needs interpretability

    • @jeremykothe2847
      @jeremykothe2847 4 หลายเดือนก่อน

      @@haowu7916 yeah with adjustment I got it to solve it, but not with less parameters.

  • @yuningliu6300
    @yuningliu6300 4 หลายเดือนก่อน

    at 2:21 you mentioned the documentation. where can I find it ?

  • @shubhamrandive7684
    @shubhamrandive7684 6 หลายเดือนก่อน

    Great explanation. What app do you use to create slides ?

    • @umarjamilai
      @umarjamilai  6 หลายเดือนก่อน

      PowerPoint + a lot a lot a lot a lot a lot of patience.

  • @emiyake
    @emiyake 6 หลายเดือนก่อน

    Thanks!

  • @alfredmanto5487
    @alfredmanto5487 6 หลายเดือนก่อน

    Thanks

  • @pratishdewangan132
    @pratishdewangan132 6 หลายเดือนก่อน +2

    In search of gold i found a diamond

  • @Simplifieddeeplearning
    @Simplifieddeeplearning 5 หลายเดือนก่อน

    can you make tutorial video on model like Perplexity that use website live search

  • @christopherc168
    @christopherc168 3 หลายเดือนก่อน

    But what about wavelt Kolmogorov Arnold networks ?

  • @ScottzPlaylists
    @ScottzPlaylists 6 หลายเดือนก่อน +1

    Please explain DSPy