Gradiente Descendente Explicado - Aula 5

แชร์
ฝัง
  • เผยแพร่เมื่อ 9 ม.ค. 2025

ความคิดเห็น •

  • @geocarvalhont
    @geocarvalhont 4 ปีที่แล้ว +13

    Muito bom, bateu a aula do meu mestrado! Obrigado Diogo!

    • @DiogoCortiz
      @DiogoCortiz  4 ปีที่แล้ว +1

      Hahahaha. Que legal. Fico feliz em ajudar um pouquinho

    • @SrMarkLau
      @SrMarkLau 3 ปีที่แล้ว

      Verdade hehe!!!

  • @prugzr
    @prugzr 9 หลายเดือนก่อน +3

    Diogo, já acompanho seu trabalho de outros carnavais. Porém nunca me atentei no seu canal do youtube. Pesquisei sobre este tema, e vi que tinha uma aula sua. Nem terminei o vídeo ainda, mas já quero agradecer. Que material de qualidade!
    Muito obrigado, de coração!

  • @Carlosjoaquimofficial
    @Carlosjoaquimofficial 4 วันที่ผ่านมา

    por favor continue com as aulas

  • @alansousa8435
    @alansousa8435 ปีที่แล้ว

    Eu tentei fazer um MBA no IGTI há tempo atras, se tivesse achado suas aulas antes talvez tinha terminado!
    Parabens pela qualidade do aula Diogo!

  • @aldonunes
    @aldonunes ปีที่แล้ว +1

    Cara… sensacional!!! 👏👏👏👏

  • @edmilsondossantosdejesus5734
    @edmilsondossantosdejesus5734 2 ปีที่แล้ว +1

    Parabéns Diogo, muito didático e fácil de entender. Apenas uma observação:
    No código linha 57, foi necessário efetuar a correção abaixo para conseguir gerar o gráfico de custo no final
    contador_custo.append(loss.item())
    É possível ainda plotar o gráfico de custos x valores de m, acrescentando duas linhas abaixo
    linha 58
    m_values.append(model.weight.data.detach().item())
    substituir na linha 87
    plt.plot(m_values, contador_custo, 'b')

  • @PauloViniciusMoreiraDutra
    @PauloViniciusMoreiraDutra 2 ปีที่แล้ว

    Aula top. Melhor didática até agora. Muito melhor que alguns professores do meu mestrado. Que nem se quer explicaram esse tema que é extremamente importante para entender os sistemas de predição

  • @antonioluisdoregolunafilho9220
    @antonioluisdoregolunafilho9220 3 ปีที่แล้ว

    Excelente...

  • @danielmendes5732
    @danielmendes5732 ปีที่แล้ว

    Mano parabéns mesmo pelo conteúdo, único vídeo do youtube que entrou didaticamente no tema de regressão com rigor e uma didática impecável.

  • @raquelbuenoribeiro3613
    @raquelbuenoribeiro3613 3 ปีที่แล้ว

    Nossa, a sua explicação foi muito boa. Não dá nem pra acreditar que você publicou aqui de graça. Muito obrigada!

  • @guilhermecosta6
    @guilhermecosta6 5 หลายเดือนก่อน

    sua aula é muito boa, Diogo. Parabéns!

  • @joaopauloschiavonieno9953
    @joaopauloschiavonieno9953 3 ปีที่แล้ว

    Melhor que muita aula de graduação e de pós graduação. Diogo, as federais e estaduais estão perdendo sem um cara como vc para lecionar. Parabéns

  • @carlossantos6226
    @carlossantos6226 2 ปีที่แล้ว

    Obrigado!

  • @romuloilluminati
    @romuloilluminati 4 ปีที่แล้ว +1

    O lance de ser mais utilizado o mse é por conta do erro quadrático ser diferenciável e o erro abs não. Tipo xˆ2 é diferenciável e |x| não é diferenciável. Então, como na hora de minimizar a função vc precisa derivar você deriva uma função que possui derivada em todo seu domínio.

  • @pythonscienceanddatascienc4351
    @pythonscienceanddatascienc4351 3 ปีที่แล้ว

    Aula maravilhosa!!! Você foi super didático em falar nesse tema. Aprendi muito. Obrigada.

  • @viniciussilvapessaa3633
    @viniciussilvapessaa3633 3 ปีที่แล้ว

    Estou fazendo o curso completo, pretendo aplicar ML na área médica para fazer pesquisa. Primeiro focando na teoria, depois nos códigos

  • @rauferibeiro
    @rauferibeiro 4 ปีที่แล้ว

    Explicação extratemente simples e didática para um assunto espinhoso. Parabéns Diogo!

  • @raniermoura3825
    @raniermoura3825 3 ปีที่แล้ว

    Entendi mais nessa aula do quê na do mestrado, haha. Muito bom!

  • @alexandrejeff
    @alexandrejeff 3 ปีที่แล้ว

    Obrigado pela excelente aula.

  • @pedromartins562
    @pedromartins562 3 ปีที่แล้ว

    Diogo, que facilidade de explicar algo complexo! Parabéns, esclarecedor demais!

  • @cnsantana1982
    @cnsantana1982 4 ปีที่แล้ว +5

    Obrigado, Diogo! É sempre um alento assistir seus vídeos.

  • @titowoche
    @titowoche 4 ปีที่แล้ว +1

    Didática muito boa, parabéns

  • @brunocesar7208
    @brunocesar7208 4 ปีที่แล้ว +2

    Melhor canal!!

  • @juniormartinxo
    @juniormartinxo 4 ปีที่แล้ว +1

    Finalmente estou conseguindo entender os conceitos! Parabéns Diogo! Sucesso sempre!!!

    • @DiogoCortiz
      @DiogoCortiz  4 ปีที่แล้ว

      Que legal!!! Fico feliz em saber! :)

  • @FelipeOliveira-pl9nu
    @FelipeOliveira-pl9nu 4 ปีที่แล้ว

    Diogo, que aula fantástica ! Parabéns pelo canal sigo ansioso aguardando as próximas aulas!!!

  • @vitoriaferreira8271
    @vitoriaferreira8271 4 ปีที่แล้ว

    Aprendendo muitooo, didática incrível

  • @andrejacques6622
    @andrejacques6622 4 ปีที่แล้ว

    Excelente explicação, obrigado!

  • @thimendonca1
    @thimendonca1 4 ปีที่แล้ว

    Excelente didática! Ajudando muito no aprendizado!!!

  • @MrLenzi1983
    @MrLenzi1983 4 ปีที่แล้ว +1

    aula top, gratidão!

  • @gustavotiecker6512
    @gustavotiecker6512 4 ปีที่แล้ว

    Parabéns pelas aulas fantásticas Diogo! Muito obrigado por compartilhar!

  • @engrafaelcarlos6413
    @engrafaelcarlos6413 3 ปีที่แล้ว

    TOP

  • @katekawaux
    @katekawaux 4 ปีที่แล้ว +1

    Wow! Isso foi incrível!! =)
    Parabéns pelo conteúdo!!
    Muito obrigado por compartilhar!

    • @DiogoCortiz
      @DiogoCortiz  4 ปีที่แล้ว +1

      Obrigado!

    • @katekawaux
      @katekawaux 4 ปีที่แล้ว

      @@DiogoCortiz Eu que agradeço!

  • @jarmatos
    @jarmatos 4 หลายเดือนก่อน

    Gradiente Descendente Explicado: Explicado mesmo!

  • @gilsonfonseca8574
    @gilsonfonseca8574 3 ปีที่แล้ว

    Mestre, tudo bem?? Excelente aula, mas não houve o vídeo explicando o Back Propagation ?? A aula termina prometendo um próximo vídeo e aí ficou a curiosidade de continuar. Um forte abraço e grato pela excelente aula.

  • @italonobrega3485
    @italonobrega3485 3 ปีที่แล้ว

    Conteúdo incrível!!! Pena que não dá para dar mais de um like.

  • @rogeriopereirajunior7504
    @rogeriopereirajunior7504 2 ปีที่แล้ว

    A minha única duvida ficou em relação esse passo de ajuste. Analisando a função custo como você bem mostrou ela possui um mínimo. Observa-se no gráfico 2D (custo x m) que se a gente "acompanhar" a reta tangente, no ponto mínimo ela estará paralela ao eixo x, ou seja, não há variação alguma. Desta forma, não seria interessante eu calcular o MSE e em seguida derivar (em m e a) e IGUALAR A ZERO de modo a obter vamos dizer assim os "coeficientes ótimos" sem que haja necessidade desses passos? Se eu tenho um ponto da curva em que a taxa de variação da reta tangente é igual a zero, eu sei que o mínimo de tal função pode ser encontrada derivando e igualando a zero. Minha duvida é nesse ponto, não seria viável partir direto para tal abordagem? É claro, para uma função convexa.

  • @ramonnepomuceno5299
    @ramonnepomuceno5299 3 ปีที่แล้ว

    Muito bom!!
    Poderia compartilhar os slides?

  • @leok9982
    @leok9982 4 ปีที่แล้ว

    Muito bacana mesmo sua explicação. Sobre o PyTorch, você acha ele melhor que o TensorFlow? Ou não faz muita diferença?

  • @marco.nascimento
    @marco.nascimento 4 ปีที่แล้ว +1

    Professor, a aula 5 está após a aula 7 na playlist do curso, se puder corrigir :)) Mais uma aula excelente, tô amando o curso. Abraços.

  • @lestgotrader3275
    @lestgotrader3275 ปีที่แล้ว

    Já tinha ido pra aula 6 rs

  • @naiaracerqueira3981
    @naiaracerqueira3981 4 ปีที่แล้ว +1

    Agora acho que até consigo voltar ao curso de ML do Andrew Ng hhahaha

  • @pimentelufrj
    @pimentelufrj 4 ปีที่แล้ว

    Olá professor Diogo. Em relação à matemática, não entendi quando vou saber que chegou no mínimo (de m e de b), ou seja, quando parar de fazer as derivadas. Agradeço pelo curso. Muito bom!

    • @lucasveiga8139
      @lucasveiga8139 2 ปีที่แล้ว

      Não tenho certeza, mas acredito que você estipula um valor de erro aceitável para o seu sistema. Ex: erro= 0.001 ou um limite de interações

  • @ritacatalao7299
    @ritacatalao7299 10 หลายเดือนก่อน

    BAOM DIA ACABEI A AULA - Gradiente Descendente Explicado - Aula 5 - E não encontrei o código

  • @rodrigoleite9202
    @rodrigoleite9202 4 ปีที่แล้ว

    Exceptional!!! Você é o cara namoral... Deus te abençoe!
    OBS: Só uma dúvida... Porque na função de custo (MSE) tem 1/N multiplicando o somatório?

    • @lucasveiga8139
      @lucasveiga8139 2 ปีที่แล้ว

      A média da função acontece inserindo (1/N). Dividindo o somatório pela total de N.

  • @joseeustaquiomunizsantos6209
    @joseeustaquiomunizsantos6209 4 ปีที่แล้ว +1

    Fala mestre!!!! Esta aula não está na play list. tem algum motivo???

    • @DiogoCortiz
      @DiogoCortiz  4 ปีที่แล้ว

      Esqueci. hahahaha. Vou adicionar lá. Obrigado por avisar! :)

    • @joseeustaquiomunizsantos6209
      @joseeustaquiomunizsantos6209 4 ปีที่แล้ว

      @@DiogoCortiz Valeu mestre!!!! Eu que agradeço. Aulas estão muito boas.

  • @gustgusta
    @gustgusta 2 ปีที่แล้ว

    Muito bom.