Lecture 8 | Loss Functions II | CMPS 497 Deep Learning | Fall 2024

แชร์
ฝัง
  • เผยแพร่เมื่อ 14 ม.ค. 2025

ความคิดเห็น • 10

  • @suman14san
    @suman14san 3 หลายเดือนก่อน

    First time, I understood what MLE to its core. Thank you so much Prof Tamer.

    • @tamer_elsayed
      @tamer_elsayed  3 หลายเดือนก่อน

      You're most welcome

  • @drigh008
    @drigh008 2 หลายเดือนก่อน

    sir wonderful lecture

  • @amitabhachakraborty497
    @amitabhachakraborty497 3 หลายเดือนก่อน

    Thank you sir .I have one question plz explain the second line of the maximum likelihood equation at 6:50 m why it is replaced with theta

    • @tamer_elsayed
      @tamer_elsayed  3 หลายเดือนก่อน

      Because the probability distribution is also conditioned by its parameters theta (by definition), which now are functions of the input x (since we set the network to predict them), so we can just say it is conditioned by theta in short.

    • @amitabhachakraborty497
      @amitabhachakraborty497 3 หลายเดือนก่อน

      @@tamer_elsayed Thank you sir

  • @suman14san
    @suman14san 3 หลายเดือนก่อน

    Sir, can you share the presentation (pdf) ? It would immensely help for revision. Although I could see the slides in the udl website, but I felt your slides are more condensed.
    Thank you once again

    • @tamer_elsayed
      @tamer_elsayed  3 หลายเดือนก่อน

      Sure, I will add a link to every lecture in the description. I already did in lecture 9.

    • @suman14san
      @suman14san 3 หลายเดือนก่อน

      @@tamer_elsayed yes sir, thank you so much 🙏🏻