Lecture 14 - Expectation-Maximization Algorithms | Stanford CS229: Machine Learning (Autumn 2018)

แชร์
ฝัง
  • เผยแพร่เมื่อ 28 ก.ย. 2024

ความคิดเห็น • 23

  • @igoragoli
    @igoragoli ปีที่แล้ว +24

    Thanks Andrew and Stanford for putting this out.
    K-means clustering: 00:46
    Density estimation (prelude to mixture of Gaussians): 16:20
    Mixture of Gaussians: 21:16
    EM Algorithm: 23:41

  • @TheGarnt
    @TheGarnt ปีที่แล้ว +11

    I've watched a few videos explaining EM and this is by far the best one. Most of the others forget to explain some of the concepts or terms that are part of the algorithm, but this gives a clear explanation for everything.

    • @stanfordonline
      @stanfordonline  ปีที่แล้ว +2

      Great feedback, thanks for watching!

  • @Avichinky2725
    @Avichinky2725 ปีที่แล้ว +4

    To choose the right number of clusters, we can use Elbow method.13:50

  • @user-wr4yl7tx3w
    @user-wr4yl7tx3w 11 หลายเดือนก่อน +14

    can someone please buy Andrew some decent pens, with darker ink.

  • @krishnendu-jana
    @krishnendu-jana 8 หลายเดือนก่อน +1

    Whats not in this lecture 😮, ML, Stat, Information Coding Theory 🔥🔥

  • @Neiltxu
    @Neiltxu ปีที่แล้ว

    thank you so much for making me learn and really understand. You´re helping me so much with AI

  • @rajkane989
    @rajkane989 2 ปีที่แล้ว +9

    uploaded 2 years ago, 80k views, and no comments?

    • @yuxiang3147
      @yuxiang3147 2 ปีที่แล้ว +2

      The views are from bots LOL

    • @blaubeerbrot
      @blaubeerbrot 11 หลายเดือนก่อน

      ​@@yuxiang3147😂😂😂😂😂😂😂😂 under a Stanford lecture 👍😂🤡

    • @mohammadnafisalam4292
      @mohammadnafisalam4292 10 หลายเดือนก่อน

      @@yuxiang3147 bots are collecting data to train themself. should we compete with them?

  • @xiaowei8546
    @xiaowei8546 10 หลายเดือนก่อน

    Why Q is with subscript i? Isn't it iid?

  • @AHMEDRAZA-nh4xm
    @AHMEDRAZA-nh4xm ปีที่แล้ว +1

    Awesome 🤩

  • @EjazAhmed-pf5tz
    @EjazAhmed-pf5tz ปีที่แล้ว

    thank you so much prof.

  • @Kokso.
    @Kokso. 10 หลายเดือนก่อน

    32:30 How is p(xi|zi=j) calculated from Gaussian? Isn't p of single "point" = 0? What am I missing here?

    • @ahamuffin4747
      @ahamuffin4747 9 หลายเดือนก่อน

      Its likelihood. You can take a look at bayes theorem

  • @otheanh5306
    @otheanh5306 11 หลายเดือนก่อน +1

    Awesome

  • @weilongchen9298
    @weilongchen9298 ปีที่แล้ว

    思路非常清晰

  • @Crissybooable
    @Crissybooable 2 ปีที่แล้ว +6

    hi

  • @abhay_cs
    @abhay_cs 2 ปีที่แล้ว

    You should have used different indices for x and z. x^(i) and z^(k) perhaps...

  • @kisome2423
    @kisome2423 5 หลายเดือนก่อน

    Excellent teacher! I learn this chapter for three time from different channels. This teacher let me know further on this chapter. Thank you!