Understanding Binary Cross-Entropy / Log Loss in 5 minutes: a visual explanation

แชร์
ฝัง
  • เผยแพร่เมื่อ 14 พ.ย. 2024

ความคิดเห็น • 16

  • @radioactivebuzz
    @radioactivebuzz ปีที่แล้ว +4

    Great video, but in case anyone else is confused: 3:31 should already have the minus signs outside log (i.e. -log) to match with the on-screen diagram.

    • @altay8832
      @altay8832 3 หลายเดือนก่อน

      yess

    • @DamienTANNEAU
      @DamienTANNEAU 2 หลายเดือนก่อน

      I agree

  • @CowboyRocksteady
    @CowboyRocksteady ปีที่แล้ว +1

    thank you so much! the blog post that bought me here was phenomenal!

  • @confusion-capture
    @confusion-capture ปีที่แล้ว +1

    Simply amazing. Thank you for this much needed refresher

  • @alikhanaitbayev4191
    @alikhanaitbayev4191 6 หลายเดือนก่อน

    Thank you. Please release more videos in such format.

  • @IgorKuts
    @IgorKuts ปีที่แล้ว

    Thank you, Sir, for this brilliant video and the corresponding blog post.

  • @matruiz1918
    @matruiz1918 ปีที่แล้ว

    best explanation by far. great effort making the animations

  • @JohnSegrave
    @JohnSegrave ปีที่แล้ว

    This is super content - really nicely done! You should do more of these - this one was great, I'd love to see more (I subscribed). The equation colouring and mapping to the visual is *so incredibly useful* (looks like 3b1b's Manim?).

  • @dimastorres8530
    @dimastorres8530 4 หลายเดือนก่อน

    neat and brief. Than you

  • @emransaleh9535
    @emransaleh9535 2 ปีที่แล้ว

    Well explained! Good Job!

  • @bugaboo6819
    @bugaboo6819 ปีที่แล้ว

    Thank you!

  • @funkie1221
    @funkie1221 ปีที่แล้ว

    Great explanation. The animations are a bit distracting and also you could keep the bars up when you show the formula, would be helpful! Otherwise brilliant!!

  • @ШРЕКПЕРВЫЙ
    @ШРЕКПЕРВЫЙ 5 หลายเดือนก่อน

    Smooooch )

  • @fernandoerazo8135
    @fernandoerazo8135 2 หลายเดือนก่อน

    chat gpt brought me here . Lets goo