How Forward Propagation in Neural Networks works

แชร์
ฝัง

ความคิดเห็น • 33

  • @NM-vw6xq
    @NM-vw6xq 2 ปีที่แล้ว +1

    Misra, thank you so much for putting together these videos. They helped me out a lot. Seeing you walk through a simple example made a lot of things click for me vs. just seeing random notation in a textbook that I never fully understood.

    • @misraturp
      @misraturp  2 ปีที่แล้ว

      Glad it was helpful!

  • @mehmetakyuz1632
    @mehmetakyuz1632 7 หลายเดือนก่อน

    This is awesome. Right level of detail balanced with simplification. Great work!

  • @jameelabduljalil25
    @jameelabduljalil25 2 ปีที่แล้ว +2

    Thanks for the time and effort you put in these lessons and put them for free.. Really appreciate it..💐

    • @misraturp
      @misraturp  2 ปีที่แล้ว

      You're very welcome Jameel!

  • @HomeDesign_Austin
    @HomeDesign_Austin 11 หลายเดือนก่อน +1

    great detail for new learners, great job

  • @hshrestha2811
    @hshrestha2811 2 ปีที่แล้ว

    You have presented things in a very simple and comprehensive manner. Thanks!

    • @misraturp
      @misraturp  2 ปีที่แล้ว

      You're very welcome :)

  • @zainulhassan8557
    @zainulhassan8557 ปีที่แล้ว

    Thank You so much Mam'm. Really appreciate your efforts. You explain all the things in an easy way.

  • @behradio
    @behradio 2 ปีที่แล้ว

    Simple and Understandable, Thank you 🙏

    • @misraturp
      @misraturp  2 ปีที่แล้ว +1

      You're welcome :)

  • @viktorkovacs9680
    @viktorkovacs9680 2 ปีที่แล้ว +1

    Thanks, I understand better now. But are the slides correct at 9:11 and 12:13?

  • @alexanderkamke3774
    @alexanderkamke3774 ปีที่แล้ว

    Thanks a lot! Its very good to understand ...

  • @SheepKev
    @SheepKev 5 หลายเดือนก่อน

    I'm a bit confused at 12:34, how does `(w3x1 + w4x2) + b2` turn into `(w1x1 + w2x2) + b1`?

  • @went-rogue
    @went-rogue 2 ปีที่แล้ว

    so i first saw you Assemble Ai, loved your content, thank you so much

    • @misraturp
      @misraturp  2 ปีที่แล้ว

      Glad you enjoyed!

  • @joniendog6693
    @joniendog6693 2 ปีที่แล้ว

    Memang buat pemula seperti saya belajar ini terasa agak sulit ' biar cepet memahami saya terus mengulang ulang melihat videonya ' terima kasih ' semoga sehat selalu

  • @prasad4685
    @prasad4685 6 หลายเดือนก่อน

    Thanks ma'am- very useful

  • @schorrer17
    @schorrer17 ปีที่แล้ว

    Hey thanks for the great video!
    How would the formula be, if there would be a second hidden layer?
    assuming B would be the output of the second layer, W2^T would be the weight matrix of the second layer, b2 its bias and so on
    B=beta{W2^T*[alpha(W1^T*X+b1)]+b2}
    is this correct?
    thanks for any help

  • @himanshupandey9902
    @himanshupandey9902 2 ปีที่แล้ว

    Great ....... keep continue.

  • @dancode0775
    @dancode0775 2 ปีที่แล้ว

    clear and precise thank you

    • @misraturp
      @misraturp  2 ปีที่แล้ว

      Glad it was helpful!

  • @hshrestha2811
    @hshrestha2811 2 ปีที่แล้ว

    I think you need to have two columns in the W transpose matrix. They are now presented as a single column with w1w2 as a product form.
    For matrix multiplication, number of columns in W transpose matrix should be equal to the number of rows in X matrix (2).

  • @mohammedzia1015
    @mohammedzia1015 2 ปีที่แล้ว

    Please share the slides and course notes for Lesson 2, Module 1.

    • @misraturp
      @misraturp  2 ปีที่แล้ว +1

      Thanks for the heads up. They're there now.

  • @lakeguy65616
    @lakeguy65616 2 ปีที่แล้ว

    RELU, if the value is less than zero, relu returns 0, if greater than zero, relu returns the value (unchanged).

  • @bkentffichter
    @bkentffichter ปีที่แล้ว

    This is all fine, but I have no idea what all of this means as far as learning. I need to have some sort of practical something.