Adam, AdaGrad & AdaDelta - EXPLAINED!

แชร์
ฝัง
  • เผยแพร่เมื่อ 31 ต.ค. 2024

ความคิดเห็น •

  • @Firestorm-tq7fy
    @Firestorm-tq7fy ปีที่แล้ว +3

    Very very good explaination! Besides your little accent, it’s top quality.
    I have been searching for a decent explain-video for a long time. U nailed it! Strongly underrated video 👌🏼

  • @georgeli4538
    @georgeli4538 ปีที่แล้ว +1

    Excellent video

  • @crusadermic-41
    @crusadermic-41 ปีที่แล้ว

    superb content buddy... keep on uploading

  • @hreedishkakoty6771
    @hreedishkakoty6771 5 หลายเดือนก่อน

    I have tried your python notebook for this video from Github. Excellent work. Thanks for making it available. However, I can see that adam is not really working best for the linear function you have created. I was wondering, at what point of non-linear complexity does adam start showing better results over other optimizers. Would be great to have this discussion.

  • @raghavendra6978
    @raghavendra6978 2 ปีที่แล้ว +2

    superb explaination :)

  • @yameenvinchu6255
    @yameenvinchu6255 2 ปีที่แล้ว +3

    Keep going quality content

  • @AvengersT-h2k
    @AvengersT-h2k ปีที่แล้ว +1

    Great explanation bro😊

  • @dhiraj223
    @dhiraj223 3 ปีที่แล้ว +2

    Awesome 😎 Will try 🤘🤘

  • @tollsimyfpv
    @tollsimyfpv 11 หลายเดือนก่อน

    Awesome content!

  • @aftermancz
    @aftermancz 4 หลายเดือนก่อน

    Nice, thx :D

  • @sumeetmishra9115
    @sumeetmishra9115 3 ปีที่แล้ว +1

    Good content

  • @pnachtwey
    @pnachtwey 5 หลายเดือนก่อน

    I have found that alpha_t gets too big too quickly so that learning slows to a crawl. A simple line search works better.