Diogo, já acompanho seu trabalho de outros carnavais. Porém nunca me atentei no seu canal do youtube. Pesquisei sobre este tema, e vi que tinha uma aula sua. Nem terminei o vídeo ainda, mas já quero agradecer. Que material de qualidade! Muito obrigado, de coração!
Parabéns Diogo, muito didático e fácil de entender. Apenas uma observação: No código linha 57, foi necessário efetuar a correção abaixo para conseguir gerar o gráfico de custo no final contador_custo.append(loss.item()) É possível ainda plotar o gráfico de custos x valores de m, acrescentando duas linhas abaixo linha 58 m_values.append(model.weight.data.detach().item()) substituir na linha 87 plt.plot(m_values, contador_custo, 'b')
Aula top. Melhor didática até agora. Muito melhor que alguns professores do meu mestrado. Que nem se quer explicaram esse tema que é extremamente importante para entender os sistemas de predição
O lance de ser mais utilizado o mse é por conta do erro quadrático ser diferenciável e o erro abs não. Tipo xˆ2 é diferenciável e |x| não é diferenciável. Então, como na hora de minimizar a função vc precisa derivar você deriva uma função que possui derivada em todo seu domínio.
Mestre, tudo bem?? Excelente aula, mas não houve o vídeo explicando o Back Propagation ?? A aula termina prometendo um próximo vídeo e aí ficou a curiosidade de continuar. Um forte abraço e grato pela excelente aula.
A minha única duvida ficou em relação esse passo de ajuste. Analisando a função custo como você bem mostrou ela possui um mínimo. Observa-se no gráfico 2D (custo x m) que se a gente "acompanhar" a reta tangente, no ponto mínimo ela estará paralela ao eixo x, ou seja, não há variação alguma. Desta forma, não seria interessante eu calcular o MSE e em seguida derivar (em m e a) e IGUALAR A ZERO de modo a obter vamos dizer assim os "coeficientes ótimos" sem que haja necessidade desses passos? Se eu tenho um ponto da curva em que a taxa de variação da reta tangente é igual a zero, eu sei que o mínimo de tal função pode ser encontrada derivando e igualando a zero. Minha duvida é nesse ponto, não seria viável partir direto para tal abordagem? É claro, para uma função convexa.
Olá professor Diogo. Em relação à matemática, não entendi quando vou saber que chegou no mínimo (de m e de b), ou seja, quando parar de fazer as derivadas. Agradeço pelo curso. Muito bom!
Muito bom, bateu a aula do meu mestrado! Obrigado Diogo!
Hahahaha. Que legal. Fico feliz em ajudar um pouquinho
Verdade hehe!!!
Diogo, já acompanho seu trabalho de outros carnavais. Porém nunca me atentei no seu canal do youtube. Pesquisei sobre este tema, e vi que tinha uma aula sua. Nem terminei o vídeo ainda, mas já quero agradecer. Que material de qualidade!
Muito obrigado, de coração!
por favor continue com as aulas
Eu tentei fazer um MBA no IGTI há tempo atras, se tivesse achado suas aulas antes talvez tinha terminado!
Parabens pela qualidade do aula Diogo!
Cara… sensacional!!! 👏👏👏👏
Parabéns Diogo, muito didático e fácil de entender. Apenas uma observação:
No código linha 57, foi necessário efetuar a correção abaixo para conseguir gerar o gráfico de custo no final
contador_custo.append(loss.item())
É possível ainda plotar o gráfico de custos x valores de m, acrescentando duas linhas abaixo
linha 58
m_values.append(model.weight.data.detach().item())
substituir na linha 87
plt.plot(m_values, contador_custo, 'b')
Aula top. Melhor didática até agora. Muito melhor que alguns professores do meu mestrado. Que nem se quer explicaram esse tema que é extremamente importante para entender os sistemas de predição
Excelente...
Mano parabéns mesmo pelo conteúdo, único vídeo do youtube que entrou didaticamente no tema de regressão com rigor e uma didática impecável.
Nossa, a sua explicação foi muito boa. Não dá nem pra acreditar que você publicou aqui de graça. Muito obrigada!
sua aula é muito boa, Diogo. Parabéns!
Melhor que muita aula de graduação e de pós graduação. Diogo, as federais e estaduais estão perdendo sem um cara como vc para lecionar. Parabéns
Obrigado!
O lance de ser mais utilizado o mse é por conta do erro quadrático ser diferenciável e o erro abs não. Tipo xˆ2 é diferenciável e |x| não é diferenciável. Então, como na hora de minimizar a função vc precisa derivar você deriva uma função que possui derivada em todo seu domínio.
Aula maravilhosa!!! Você foi super didático em falar nesse tema. Aprendi muito. Obrigada.
Estou fazendo o curso completo, pretendo aplicar ML na área médica para fazer pesquisa. Primeiro focando na teoria, depois nos códigos
Explicação extratemente simples e didática para um assunto espinhoso. Parabéns Diogo!
Entendi mais nessa aula do quê na do mestrado, haha. Muito bom!
Obrigado pela excelente aula.
Diogo, que facilidade de explicar algo complexo! Parabéns, esclarecedor demais!
Obrigado, Diogo! É sempre um alento assistir seus vídeos.
Valeu!!! :)
Didática muito boa, parabéns
Melhor canal!!
Obrigado!! :)
Finalmente estou conseguindo entender os conceitos! Parabéns Diogo! Sucesso sempre!!!
Que legal!!! Fico feliz em saber! :)
Diogo, que aula fantástica ! Parabéns pelo canal sigo ansioso aguardando as próximas aulas!!!
Aprendendo muitooo, didática incrível
Excelente explicação, obrigado!
Excelente didática! Ajudando muito no aprendizado!!!
aula top, gratidão!
Parabéns pelas aulas fantásticas Diogo! Muito obrigado por compartilhar!
TOP
Wow! Isso foi incrível!! =)
Parabéns pelo conteúdo!!
Muito obrigado por compartilhar!
Obrigado!
@@DiogoCortiz Eu que agradeço!
Gradiente Descendente Explicado: Explicado mesmo!
Mestre, tudo bem?? Excelente aula, mas não houve o vídeo explicando o Back Propagation ?? A aula termina prometendo um próximo vídeo e aí ficou a curiosidade de continuar. Um forte abraço e grato pela excelente aula.
Conteúdo incrível!!! Pena que não dá para dar mais de um like.
A minha única duvida ficou em relação esse passo de ajuste. Analisando a função custo como você bem mostrou ela possui um mínimo. Observa-se no gráfico 2D (custo x m) que se a gente "acompanhar" a reta tangente, no ponto mínimo ela estará paralela ao eixo x, ou seja, não há variação alguma. Desta forma, não seria interessante eu calcular o MSE e em seguida derivar (em m e a) e IGUALAR A ZERO de modo a obter vamos dizer assim os "coeficientes ótimos" sem que haja necessidade desses passos? Se eu tenho um ponto da curva em que a taxa de variação da reta tangente é igual a zero, eu sei que o mínimo de tal função pode ser encontrada derivando e igualando a zero. Minha duvida é nesse ponto, não seria viável partir direto para tal abordagem? É claro, para uma função convexa.
Muito bom!!
Poderia compartilhar os slides?
Muito bacana mesmo sua explicação. Sobre o PyTorch, você acha ele melhor que o TensorFlow? Ou não faz muita diferença?
Professor, a aula 5 está após a aula 7 na playlist do curso, se puder corrigir :)) Mais uma aula excelente, tô amando o curso. Abraços.
Já tinha ido pra aula 6 rs
Agora acho que até consigo voltar ao curso de ML do Andrew Ng hhahaha
Olá professor Diogo. Em relação à matemática, não entendi quando vou saber que chegou no mínimo (de m e de b), ou seja, quando parar de fazer as derivadas. Agradeço pelo curso. Muito bom!
Não tenho certeza, mas acredito que você estipula um valor de erro aceitável para o seu sistema. Ex: erro= 0.001 ou um limite de interações
BAOM DIA ACABEI A AULA - Gradiente Descendente Explicado - Aula 5 - E não encontrei o código
Exceptional!!! Você é o cara namoral... Deus te abençoe!
OBS: Só uma dúvida... Porque na função de custo (MSE) tem 1/N multiplicando o somatório?
A média da função acontece inserindo (1/N). Dividindo o somatório pela total de N.
Fala mestre!!!! Esta aula não está na play list. tem algum motivo???
Esqueci. hahahaha. Vou adicionar lá. Obrigado por avisar! :)
@@DiogoCortiz Valeu mestre!!!! Eu que agradeço. Aulas estão muito boas.
Muito bom.