What is the difference between negative log likelihood and cross entropy? (in neural networks)

แชร์
ฝัง
  • เผยแพร่เมื่อ 24 พ.ย. 2024
  • Full video list and slides: www.kamperh.co...
    Introduction to neural networks playlist: • Introduction to neural...
    Yet another introduction to backpropagation: www.kamperh.co...

ความคิดเห็น • 8

  • @harshadsaykhedkar1515
    @harshadsaykhedkar1515 5 หลายเดือนก่อน +1

    This is one of the better explanations of how the heck we go from maximum likelihood to using NLL loss to log of softmax. Thanks!

  • @allantourin
    @allantourin 11 หลายเดือนก่อน +3

    Thanks Herman. I'm following some pytorch tutorial and got lost when i saw the cross entropy computation equal the NLL one. This definitely filled the gap

    • @kamperh
      @kamperh  11 หลายเดือนก่อน +2

      Very happy this helped!! :D

  • @RahulSinghChhonkar
    @RahulSinghChhonkar 2 หลายเดือนก่อน

    For AnyOne having any doubts in relation bt NLL abd Cross entropy . this is a must watch !!!

  • @kundanyalangi2922
    @kundanyalangi2922 6 หลายเดือนก่อน

    Good explanation. Thank you Herman

  • @AngeloKrs878
    @AngeloKrs878 ปีที่แล้ว +1

    Thanks for the video

  • @martinpareegol5263
    @martinpareegol5263 4 หลายเดือนก่อน

    Why is it prefered to solve the problem as minimize the cross entropy over minimize de NLL? Are there more efficient properties doing that?

  • @RuthClark-f1j
    @RuthClark-f1j 2 หลายเดือนก่อน

    Drake Forges