KAN: Kolmogorov-Arnold Networks

แชร์
ฝัง
  • เผยแพร่เมื่อ 27 ธ.ค. 2024

ความคิดเห็น • 30

  • @StratosFair
    @StratosFair 19 วันที่ผ่านมา

    Excellent presentation, very clear and very interesting

  • @bologcom
    @bologcom 6 หลายเดือนก่อน +1

    Now I can understand KAN more clearly. Thank you!

  • @athanatic
    @athanatic 6 หลายเดือนก่อน +2

    Amazing! Can't wait to see all the applications!

  • @braineaterzombie3981
    @braineaterzombie3981 5 หลายเดือนก่อน +1

    Google started working on it this fast. Thats crazy

  • @BonheurMaison
    @BonheurMaison 2 หลายเดือนก่อน

    KART seems to work for functions taking inputs in the [0,1] range, how do you deal with that?

  • @clivedsouza6213
    @clivedsouza6213 6 หลายเดือนก่อน

    how is the activation selection done? Don't you need a lookup/domain of functions to choose from?

  • @tianhao_harryzhang
    @tianhao_harryzhang 5 หลายเดือนก่อน

    Has it been integrated into common AI framework like PyTorch or tensorflow?

  • @fbomb3930
    @fbomb3930 3 หลายเดือนก่อน

    Anything come out of KAN?

  • @movsessaryan1262
    @movsessaryan1262 6 หลายเดือนก่อน

    Do KANs require fewer GPUs to achieve the same results for certain problems ?

    • @leosmi1
      @leosmi1 6 หลายเดือนก่อน +1

      KANs Pros and Cons
      Pros
      - Accuracy
      - Interpretability
      - Faster neural scaling laws (achieve comparable or better outcomes with fewer parameters)
      Cons
      - Speed and efficiency (10x slower than MLPs given the same number of parameters)
      - Scaling

    • @aabbcc12411
      @aabbcc12411 5 หลายเดือนก่อน +2

      Since the "activation function" of each edges are different, the current implementation of KAN doesn't work well with GPU but it should be possible to be accelerated by specially designed chips

    • @movsessaryan1262
      @movsessaryan1262 5 หลายเดือนก่อน

      Thanks for clarifying!

    • @Ori-lp2fm
      @Ori-lp2fm 3 หลายเดือนก่อน

      @@leosmi1seems like they can just but 10x the amount of gpus they buy now there is serious investment now , money isn’t the issue , Alltho there is economy in mind

    • @leosmi1
      @leosmi1 3 หลายเดือนก่อน

      @@Ori-lp2fm hope gets better

  • @EzraSchroeder
    @EzraSchroeder 3 หลายเดือนก่อน

    4:26 🤣😭

  • @jmirodg7094
    @jmirodg7094 6 หลายเดือนก่อน

    Very interesting thanks

  • @AlgoNudger
    @AlgoNudger 6 หลายเดือนก่อน

    Thanks.

  • @mulderbm
    @mulderbm 6 หลายเดือนก่อน

    Such interesting stuff and not so much time to do anything with it it should have been my bread and butter haha

  • @建平許
    @建平許 6 หลายเดือนก่อน +4

    This architecture is not compatible with current hardware due to the need to compute many additional and diverse nonlinear functions.

    • @xba2007
      @xba2007 6 หลายเดือนก่อน +7

      Not really, the bsplines are just simple multiplications / additions. In the end it's exactly the same type of operations.

    • @Ori-lp2fm
      @Ori-lp2fm 3 หลายเดือนก่อน

      @@xba2007I wonder if you can have methods to dissolve different parts of the brain , the more you scale it on a lot different hardware I wonder how you use 5 computers and merge the data , would it need to be dissolve how would it be plastered ,

  • @mawkuri5496
    @mawkuri5496 5 หลายเดือนก่อน +1

    why the blue guy blurred? is he wanted by the FBI?

  • @VijayEranti
    @VijayEranti 6 หลายเดือนก่อน

    Imagine llm agent interacting with kan to do above. We can let it run autonomously

  • @intptointp
    @intptointp 5 หลายเดือนก่อน

    Okay. Rewriting.
    My intuition on this is now, this is MLPs, but with nonlinear terms attahced to the weights and no nonlinear activation layer.
    In my reflections on this, it sounds like the nonlinear terms are selected by the trainer.
    Hm.
    I don’t know what this will bring. I feel that introducing the nonlinear terms is almost like biasing the model before training.
    Whereas linear terms are much less biased.
    But I’m not sure.

    • @tylerkharazi9530
      @tylerkharazi9530 4 หลายเดือนก่อน

      Isn’t the sigmoid function nonlinear?

  • @tomoki-v6o
    @tomoki-v6o 6 หลายเดือนก่อน +5

    Mlp in disguise.