RNN Theory and Math Clearly Explained

แชร์
ฝัง
  • เผยแพร่เมื่อ 22 ธ.ค. 2024

ความคิดเห็น • 4

  • @C4A
    @C4A  11 หลายเดือนก่อน +4

    You can consider the equation to be:
    output=f(Wy(t-1)+Ux(t)+b)
    because the left side, y(t), might be making it a bit confusing. In the video, I am referring to y as the output of the hidden layer of the RNN, not the final output of the entire network. Therefore, making the left "output" is more meaningful. However the activation is designed, the main idea is that the past output of the hidden layer information goes back with the current input to the RNN. 😃

  • @erickmacias5153
    @erickmacias5153 9 หลายเดือนก่อน +3

    Yo should make a video derivating the back propagation through time algorithm for training them.

    • @C4A
      @C4A  9 หลายเดือนก่อน +1

      Noted! Thank you for watching and the suggestion.

    • @omerfdmrl
      @omerfdmrl 2 หลายเดือนก่อน

      ​@@C4A Any update? I need this video either