Lecture 4: Optimization

แชร์
ฝัง
  • เผยแพร่เมื่อ 18 ธ.ค. 2024

ความคิดเห็น •

  • @jaeen7665
    @jaeen7665 ปีที่แล้ว +12

    As a CS grad student myself, I've sat through many lectures. This professor is really, really good.

  • @baskaisimkalmamisti
    @baskaisimkalmamisti 3 ปีที่แล้ว +6

    Animations:
    33:41 SGD
    38:06 SGD + Momentum
    45:05 Nesterov
    50:23 RMSprop
    55:27 Adam

  • @muhammetcavus6995
    @muhammetcavus6995 3 ปีที่แล้ว +16

    great lecture again, even though I did not understand anything.

  • @mohammadvahidi5483
    @mohammadvahidi5483 4 ปีที่แล้ว +36

    love these lectures
    thanks man, you are an amazing professor.

    • @ijaAI
      @ijaAI 3 ปีที่แล้ว +2

      Its an eye-opener have to download all of the videos.

  • @VikasKM
    @VikasKM 3 ปีที่แล้ว +7

    This is best lecture on optimizations, very clearly explanations, SGD, SGD+Momentum, Adagrad, RMSProp and Adam.
    If you have doubt i would request you to watch this with Andrew Ng Deep Learning Specialization Lectures to get a clear picture around optimization.

    • @amaniarman460
      @amaniarman460 2 ปีที่แล้ว

      I agree, Andrew Ng's DL specialization 2nd course goes really slowly, helps you understand

  • @anishmanandhar1203
    @anishmanandhar1203 4 หลายเดือนก่อน

    25:06 Isnt the loss in SGD computed for an example, what differences would SGD have over Minibatch gradient descent then?

  • @alexanderfrei8895
    @alexanderfrei8895 ปีที่แล้ว +1

    Absolutely brilliant !!
    Since you have went through the details (instead of jumping over them) I finally understood how derivative is taken in ML - Kudos!! 😊

  • @BoTian
    @BoTian 3 ปีที่แล้ว +3

    Great lecture, Justin. Wonder what you think about MADGRAD?

  • @hasan0770816268
    @hasan0770816268 3 ปีที่แล้ว +1

    50:00 RMSprop
    51:40 Adam

  • @changjuanjing2079
    @changjuanjing2079 2 ปีที่แล้ว

    Great lecture, I came back to watch again

  • @riadelectro1
    @riadelectro1 3 ปีที่แล้ว +2

    Thanks a lot professor, i will be grateful if you add a video course for proximal gradient methods.

  • @itchainx4375
    @itchainx4375 ปีที่แล้ว

    46:00 The students have good eyes

  • @nanunsaram
    @nanunsaram ปีที่แล้ว

  • @MrKaanDuman
    @MrKaanDuman 2 ปีที่แล้ว +1

    -t s

  • @rx380
    @rx380 4 ปีที่แล้ว

    lost my way in lecture 4

    • @ijaAI
      @ijaAI 3 ปีที่แล้ว +3

      rewatch again...going through it once is not enough

    • @ShuaiGe-n3g
      @ShuaiGe-n3g 6 วันที่ผ่านมา

      @@ijaAI yes I just watch it once, but I need quite a lot of time to digest these math 🥲

  • @syed1297
    @syed1297 3 ปีที่แล้ว +2

    please fix voice in next recordings...