Acho que só faltou explicar que essa superfície é a função na qual queremos encontrar o melhor ponto de mínimo que no exemplo de uma rede neural seria a função de erro. Pq essa é a função do gradiente que nada mais é do que um cálculo de derivadas.
Olá Jonnathan, obrigado pelo seu comentário e sua observação esta correta. O objetivo do cálculo do gradiente é encontrar o mínimo de uma função, que em uma rede neural pode ser a função de erro. O gradiente é um cálculo de derivadas que ajuda a encontrar a direção e magnitude do aumento ou diminuição mais rápido da função em um ponto específico. Fabio
Melhor aula que vi sobre esse conteúdo. Muito bem explicado, parabéns
Que bom que gostou :)
Acho que só faltou explicar que essa superfície é a função na qual queremos encontrar o melhor ponto de mínimo que no exemplo de uma rede neural seria a função de erro. Pq essa é a função do gradiente que nada mais é do que um cálculo de derivadas.
Olá Jonnathan, obrigado pelo seu comentário e sua observação esta correta. O objetivo do cálculo do gradiente é encontrar o mínimo de uma função, que em uma rede neural pode ser a função de erro. O gradiente é um cálculo de derivadas que ajuda a encontrar a direção e magnitude do aumento ou diminuição mais rápido da função em um ponto específico.
Fabio
Obrigado pela resposta, Fabio!
alto padrao
Que bo que gostou, Alessandro :)