ENTENDA REDES NEURAIS RECORRENTES (RNN) | Redes Neurais e Deep Learning 11

แชร์
ฝัง
  • เผยแพร่เมื่อ 30 ต.ค. 2024

ความคิดเห็น • 14

  • @tiagosouzasilva6649
    @tiagosouzasilva6649 ปีที่แล้ว +2

    Mais uma vez, Lucas sendo MUITO didático. Vou precisar implementar uma LSTM aqui e aprendi muito com este vídeo. Parabéns!!!

  • @miltonborges7356
    @miltonborges7356 ปีที่แล้ว

    Este video me ajudou muito há um tempo atrás. Voltando para refrescar o conteúdo

  • @lucastavares7767
    @lucastavares7767 2 ปีที่แล้ว +1

    Mega aulão prof Lucas😃👏📚

  • @rosanefalate6458
    @rosanefalate6458 5 หลายเดือนก่อน

    Parabéns pelo conteúdo!

  • @andreramos3290
    @andreramos3290 ปีที่แล้ว

    Excelente. Parabéns!

  • @livia2774
    @livia2774 2 ปีที่แล้ว

    seus vídeos sempre com qualidade! Parabéns!

  • @paulolima2292
    @paulolima2292 2 ปีที่แล้ว

    Ótima didática.

  • @Gamer-tm7nu
    @Gamer-tm7nu 2 ปีที่แล้ว

    Opa, eu tava mesmo procurando um conteúdo de qualidade sobre esse assunto :)

  • @mateuslima126
    @mateuslima126 2 ปีที่แล้ว

    Muito bom!

  • @SickMantv
    @SickMantv 2 ปีที่แล้ว

    tem como fazer um video teorico sobre window size e batch size?

  • @SickMantv
    @SickMantv 2 ปีที่แล้ว +1

    não entendi muito bem a parte do back propagation da rnn normal. Ela não consegue lembrar de memorias longas porque quando propaga para trás as informação antigas tem um peso ttão pequeno que serão ignoradas?

    • @UniversoDiscreto
      @UniversoDiscreto  2 ปีที่แล้ว +3

      isso! essas memórias são representadas numericamente por valores pequenos (tipo 0,001...) que são multiplicadas por outros valores igualmente pequenos com o tempo. com isso, as informações antigas vão sumindo, em detrimento das mais recentes.

  • @inovastar
    @inovastar ปีที่แล้ว

    Olá.. que tal uma parceria? fiz um programa em píton para compra/venda de ativos bem assertivo, porém penso que uma rede neural ficaria perfeito. Por isso preciso de uma parceria para adaptar a rede neural neste soft. Caso lhe interesse, pode ser uma muito boa, pois com um RN a coisa é de 87 a 97 % de acertividade...pensa ai e me diga, valeu!

  • @RickandMorty-dt1md
    @RickandMorty-dt1md 10 หลายเดือนก่อน

    analogia: filme o vidente. essa back propagation esta errada, pois é como se você reconhecesse erros pra vários instantes no tempo sem descriminalização. logo oque você estaria visando? não faz sentido propagar tudo junto de uma vez. cada decisão errada já esta sendo realinhada, oque se deseja é corrigir o realinhamento [cada ação tomada], mas pra isso devesse saber o Whh em cada instante de tempo tendo quantidade t. assim ao acabar a t recursão o Why seria reajustado e apos isso o recursao anterior . mas não bem isse o problema. o problema é que a bomba não deve apagar oque o vidente aprendeu em combate, logo a back propagation deve ser de outra forma. devesse fazer a backpropagation em cada instante apos [se iterar gerando uma nova resposta] assim ja se memoriza o aprendizado. alem disso o lance de somar os erros não faz sentido, ja que o contexto do final que seria responsavel em classificar o peso de cada erro a depender da meta. e tomando a analogia do filme, so seria ajustado o peso de uma ação muito no passado pois foi reajustado o y/aMeta, garantido oque o vidente aprendeu sobre combate. não sei sobre Rnn mas podemos fazer uma analogia logica da logica em aprendizado