Teoria sobre Redes Neurais Artificiais: Descida do Gradiente

แชร์
ฝัง
  • เผยแพร่เมื่อ 29 ธ.ค. 2024

ความคิดเห็น •

  • @maisamoreira4241
    @maisamoreira4241 8 หลายเดือนก่อน +1

    Melhor aula que vi sobre esse conteúdo. Muito bem explicado, parabéns

  • @jonnathannfinizola2341
    @jonnathannfinizola2341 ปีที่แล้ว +3

    Acho que só faltou explicar que essa superfície é a função na qual queremos encontrar o melhor ponto de mínimo que no exemplo de uma rede neural seria a função de erro. Pq essa é a função do gradiente que nada mais é do que um cálculo de derivadas.

    • @FabioSpak
      @FabioSpak ปีที่แล้ว +2

      Olá Jonnathan, obrigado pelo seu comentário e sua observação esta correta. O objetivo do cálculo do gradiente é encontrar o mínimo de uma função, que em uma rede neural pode ser a função de erro. O gradiente é um cálculo de derivadas que ajuda a encontrar a direção e magnitude do aumento ou diminuição mais rápido da função em um ponto específico.
      Fabio

    • @IAExpertAcademy
      @IAExpertAcademy  ปีที่แล้ว +1

      Obrigado pela resposta, Fabio!

  • @alessandropessoa1037
    @alessandropessoa1037 2 ปีที่แล้ว +3

    alto padrao