Kolmogorov-Arnold Networks (KANs) - What are they and how do they work?

แชร์
ฝัง
  • เผยแพร่เมื่อ 15 ม.ค. 2025

ความคิดเห็น • 62

  • @brainxyz
    @brainxyz หลายเดือนก่อน +4

    The best explanation of the topic on TH-cam. All you need to know is explained in less than 15 minute! Thank you very much

  • @AbdallahBoukouffallah
    @AbdallahBoukouffallah หลายเดือนก่อน +4

    Truly a hidden gem. I've missed out a lot by not knowing about this channel, and off course Luis is the best math teacher i've ever had.

  • @khaledal-utaibi2049
    @khaledal-utaibi2049 28 วันที่ผ่านมา +1

    Thanks!

    • @SerranoAcademy
      @SerranoAcademy  28 วันที่ผ่านมา

      @khaledal-utaibi2049 thank you so much for your very kind contribution! I really appreciate it ☺️

  • @brokensoul6316
    @brokensoul6316 18 วันที่ผ่านมา

    One of the finest videos on KAN network

  • @titong_totong
    @titong_totong หลายเดือนก่อน +10

    and this lesson is free? What a time to be alive!

    • @SerranoAcademy
      @SerranoAcademy  หลายเดือนก่อน +3

      Thank you, my payment is kind comments like yours. :)

    • @titong_totong
      @titong_totong หลายเดือนก่อน

      @@SerranoAcademy I'm actually looking for other architectures right now since my models can't get pass the 88% AUC ROC maximum. Hopefully, I can use this to get to that sweet 95-ish %. Thank you again. Please be kind with the maths in your next video. lol

  • @michaelzumpano7318
    @michaelzumpano7318 26 วันที่ผ่านมา

    Your delivery was brilliant! You gave the right amount of detail. I’m really a fan now. Can’t wait for the next one, and I’m going to watch your other playlists. Thank you.

  • @rikiakbar4025
    @rikiakbar4025 หลายเดือนก่อน

    I can't thank you enough, Luis. You make all this stuff look very simple.

  • @brothberg
    @brothberg 25 วันที่ผ่านมา

    Great delivery! I wish every math teacher was like Luis.

  • @fangyuan871
    @fangyuan871 หลายเดือนก่อน

    Thank you so much for your efforts to put out such informative videos.

  • @figueraxiyana9411
    @figueraxiyana9411 หลายเดือนก่อน

    Muchas gracias por las explicaciones. Como siempre, las mejores que hay en youtube.

    • @SerranoAcademy
      @SerranoAcademy  หลายเดือนก่อน

      Muchas gracias, me alegra que te gusten! :)

  • @timothywcrane
    @timothywcrane หลายเดือนก่อน

    12/5. Checked the channel for #2. Eagerly waiting. Great Video.

  • @skydiver151
    @skydiver151 หลายเดือนก่อน +1

    Very well done video, as usual! Great and interesting work!

    • @SerranoAcademy
      @SerranoAcademy  หลายเดือนก่อน +2

      @@skydiver151 thank you! I’m glad you liked it!

  • @ምእንቲመጎጎትሕለፍኣንጭዋ
    @ምእንቲመጎጎትሕለፍኣንጭዋ หลายเดือนก่อน

    Clearly explained and illustrated. Thank you.

    • @SerranoAcademy
      @SerranoAcademy  หลายเดือนก่อน

      Thank you! I'm glad you liked it!

  • @ibrahimmosty1860
    @ibrahimmosty1860 หลายเดือนก่อน

    Amazing video by amazing teacher

    • @SerranoAcademy
      @SerranoAcademy  หลายเดือนก่อน +1

      Thank you! :) The next one is coming up soon, and I'm having a lot of fun making it. :)

  • @shivakumarkannan9526
    @shivakumarkannan9526 4 วันที่ผ่านมา

    Very innovative concept.

  • @jbtechcon7434
    @jbtechcon7434 หลายเดือนก่อน +1

    excellent explanation. thank you so much

  • @kanakraj3198
    @kanakraj3198 หลายเดือนก่อน

    This was a really good explanation of KANs. 🥳

  • @snapshot8886
    @snapshot8886 หลายเดือนก่อน

    Eagerly waiting for the second part!!!❤

    • @SerranoAcademy
      @SerranoAcademy  หลายเดือนก่อน

      Great timing! The second part just came out! :) th-cam.com/video/nS2hnm0JRBk/w-d-xo.html

    • @snapshot8886
      @snapshot8886 หลายเดือนก่อน

      ​@@SerranoAcademy thank u sir,u r awesome!!!🎉

  • @frankl1
    @frankl1 หลายเดือนก่อน +3

    At first look, KAN requires more parameters to be trained than MLP, but they claimed in the paper that KAN can compete equally if not better with MLP using a smaller network, therefore a smaller number of layers. I cannot wait to watch the next video, I would like to understand how the initial splines are chosen. For instance, if we go with B-splines, which one do we take and how many ? Are there other parameters to learn in addition to the knots ?

  • @kasraamanat5453
    @kasraamanat5453 หลายเดือนก่อน

    Thank you so much Luis , cant wait for next chapter 😍

    • @SerranoAcademy
      @SerranoAcademy  หลายเดือนก่อน +1

      Thank you! :) Yes, super excited for that one, it's coming up soon!

    • @kasraamanat5453
      @kasraamanat5453 หลายเดือนก่อน

      @@SerranoAcademy 😍😍

  • @simoncaicedo3266
    @simoncaicedo3266 หลายเดือนก่อน

    This is fantastic! Thank you

  • @keghnfeem4154
    @keghnfeem4154 หลายเดือนก่อน

    Thanks prophet.

  • @Pedritox0953
    @Pedritox0953 หลายเดือนก่อน

    Great video! Very well explained, Peace!

    • @SerranoAcademy
      @SerranoAcademy  หลายเดือนก่อน

      @@Pedritox0953 thank you so much, I’m glad you liked it! Peace! 😊

  • @khoakirokun217
    @khoakirokun217 หลายเดือนก่อน

    Why this video only have 813 views after 4 hours? Subscribe instantly :D

  • @neelkamal3357
    @neelkamal3357 หลายเดือนก่อน

    thank you sir

  • @DrBilalHussain
    @DrBilalHussain หลายเดือนก่อน

    Amazing video! Thanks :)

    • @SerranoAcademy
      @SerranoAcademy  หลายเดือนก่อน

      Thank you, I'm glad you liked it!

  • @robertholder
    @robertholder หลายเดือนก่อน

    Seems to me that, instead of training weights that lead to activation functions, KANs are training weights (knot vectors) that lead to spines. Interested to learn more about the tradeoffs between the two.

  • @RB31557
    @RB31557 หลายเดือนก่อน

    Sir: Around 11:28 in your video you show quadratic B splines (my question is true for any spline approximation) three splines that approximate the function of interest. I was unclear how this will be used. They will not be used as weights for a linear dot product right? The three splines connecting to x1 will be used to determine what each outputs right? If x1 cvalue is .3 then the middle will output a 0.3 and the other two will output 0. Am I right? I am confused how you can use them as weights in the regular sense.

  • @Sydra.
    @Sydra. หลายเดือนก่อน +1

    I think they reinvented the wheel with this one. Existing NN-s are already KANs. What they think is new is a misunderstanding of these concepts.

  • @tantzer6113
    @tantzer6113 หลายเดือนก่อน

    Mathematical beauty is enough to motivate me to watch the rest of this series. But the practical question is whether these networks can perform as well as neural networks on benchmarks, given equal “compute.” That is probably more an empirical question than a mathematical one.

    • @SerranoAcademy
      @SerranoAcademy  หลายเดือนก่อน +1

      Thank you! I fully agree. I really liked the mathematical beauty, so that is what caught my interest. From what I understand, they perform well compared to regular NNs. But it could go either way; they could become huge, or not. However, my hope is that either way, they'll inspire new architectures coming from the theory of representation of functions, as this is a beautiful field that has remained (until now) unexplored in ML.

  • @GaneshMula2023
    @GaneshMula2023 หลายเดือนก่อน

    great video😊

  • @squarehead6c1
    @squarehead6c1 หลายเดือนก่อน

    Typo in the KAN depiction: output should be f1(x1) + f2(x2).

    • @SerranoAcademy
      @SerranoAcademy  หลายเดือนก่อน

      Oh thanks! Yeah you're right, the w's should be x's.

  • @SriHariBH
    @SriHariBH หลายเดือนก่อน

    You are the best!!!

  • @GregHib
    @GregHib 17 วันที่ผ่านมา

    The next logical step is to dynamically change the accuracy of each spline per problem. And then train both weights and functions by having a third function which determines which part to train. And then we'll end up with something closer to how a biological neuron works.

  • @yashagrahari
    @yashagrahari หลายเดือนก่อน

    why do we require 4 basis functions to approximate any linear/quadratic function with 3 bins?

  • @SerranoAcademy
    @SerranoAcademy  หลายเดือนก่อน

    The second part is out, on the Kolmogorov-Arnold Theorem!
    th-cam.com/video/nS2hnm0JRBk/w-d-xo.htmlsi=ym6OsCVKFgiHhtne

  • @XiaoyuWu-rj8et
    @XiaoyuWu-rj8et 14 วันที่ผ่านมา

    Could you please share the slide/keynotes?

  • @AJKirby64
    @AJKirby64 หลายเดือนก่อน

    Ok this is great. However doesn't it also demonstrate that KANs and MLPs are equivalent? The spline sections are equivalent to the activation levels.. and the choice of b splines is equivalent to the choice of functions. So aren't the two theories and entire architectures potentially equivalent? Is this just a choice of how to get the same function approximation system into memory?

  • @carolinalasso
    @carolinalasso หลายเดือนก่อน

    🎉

    • @SerranoAcademy
      @SerranoAcademy  หลายเดือนก่อน

      @@carolinalasso ❤️

  • @user-hl2yj8kp2s
    @user-hl2yj8kp2s 17 วันที่ผ่านมา

  • @xHubAI
    @xHubAI หลายเดือนก่อน

    ❤️🧠

  • @aminkazemi1803
    @aminkazemi1803 หลายเดือนก่อน

    It is the same CNN+DENSE layers , so what is its advantage ? Would you please take example of its advantage?

  • @hackerborabora7212
    @hackerborabora7212 22 วันที่ผ่านมา

    The hippo-kan is a new kan family it's perform better than kan model