A matemática do Gradiente Descendente & Regressão Linear (machine learning)

แชร์
ฝัง
  • เผยแพร่เมื่อ 24 ม.ค. 2025

ความคิดเห็น •

  • @cleytonvinicius6836
    @cleytonvinicius6836 6 วันที่ผ่านมา +1

    Assistindo essa aula em 2025, e mano, que espetáculo de aula!! A sua didática tornou toda a complexidade do cálculo em algo simples de se entender. Muito obrigado pelo vídeo!! Agregou e muito no meu aprendizado.

  • @MrMacriny
    @MrMacriny 4 ปีที่แล้ว +8

    Equação da reta
    Símbolo somatório
    Cálculo (AULA 1): Limite
    Cálculo (AULA 2): Derivada
    Cálculo (AULA 3): Derivadas Parciais
    Cálculo (AULA 4): Máximos e Mínimos de funções, com exemplos
    Precisei ver 6 videos pra chegar nesse, valeu muito.
    Didática muito boa, excelente.

  • @vitorhugo0072
    @vitorhugo0072 8 หลายเดือนก่อน +11

    Esse é o único curso que eu pagaria se tivesse grana. Verdadeiramente ensina. Fundamentos matemáticos e prática!
    Parabéns cara, continue ensinando dessa forma. Acabou de ganhar um inscrito

    • @wilianc.b.3065
      @wilianc.b.3065 5 หลายเดือนก่อน +3

      Cara fiz o curso e recomendo

  • @nettoork5216
    @nettoork5216 5 ปีที่แล้ว +67

    Cara, o canal de vocês é muito bom! O meu sonho era achar um canal assim, onde há links de vídeos explicando todos os conceitos da aula, e os vídeos linkados também linkando outros vídeos para entender eles, como se fosse uma árvore de conhecimento. Parabéns!

  • @evertonsp09
    @evertonsp09 4 ปีที่แล้ว +23

    Tive diversas aulas sobre assunto, inclusive na fgv. E esse vídeo foi a única maneira que compreendi. Sua didática e muito boa. Parabéns.

  • @GameDevComplete
    @GameDevComplete 4 ปีที่แล้ว +4

    Quando o cara realmente domina o assunto é outra coisa viu.... que didática magnífica, não haveria forma de resumir melhor, ainda mais para quem não é da área. Parabéns

  • @phideas8925
    @phideas8925 5 ปีที่แล้ว +21

    Magnífico! Melhor aula de matemática que eu assisti na minha vida, e olha que eu já dediquei muitas horas para assistir vídeo aulas de exatas.

  • @SylviodeCamposOK
    @SylviodeCamposOK 5 ปีที่แล้ว +20

    Cara! De longe, foi a melhor aula / explicação que encontrei no TH-cam! Parabéns!!!

  • @paulodedalo218
    @paulodedalo218 ปีที่แล้ว +1

    Excelente!! A lógica de todos os conteúdos desta série foram estruturadas, facilitando o entendimento. Sem enrolação, no "time" certo. Parabéns!!

  • @carolenebertoldi279
    @carolenebertoldi279 2 ปีที่แล้ว +1

    Uma aula objetiva e precisa. Entendi conceitos, que já tinha visto em outros lugares e não tinha entendido direito, de forma muito clara. Parabéns!!!

  • @andriasmatheus8559
    @andriasmatheus8559 3 หลายเดือนก่อน +2

    Excelente o canal de vocês. Parabéns pelo trabalho. Que tenham muito sucesso!

  • @AndreSouza-rf2el
    @AndreSouza-rf2el 4 ปีที่แล้ว +3

    Agora estou começando a entender a base de como é machine learning, não é muito fácil, mas com suas aulas de matemática tudo esta ficando mais claro, obrigado.

  • @wilianc.b.3065
    @wilianc.b.3065 3 ปีที่แล้ว +2

    Muito obrigado ! Após assistir os vídeos, consegui implementar o gradiente descendente e a regressão linear !

  • @joao5858
    @joao5858 4 ปีที่แล้ว +1

    Muito obrigado professor, não compreendi 100% dos calculos mas a logica principal compreendi 100%, a descida do gradiente não é nada mais que a tentativa de se aproximar do valor esperado a partir de derivadas. Obrigado

    • @MichelLedig
      @MichelLedig 4 ปีที่แล้ว

      Exatamente, também não acompanhei 100% a parte matemática (e nem era meu objetivo) mas assistir o processo que ele usou pra montar as fórmulas esclareceu demais o que acontece por trás dos scripts de regressao linear

  • @percyciclope
    @percyciclope 2 หลายเดือนก่อน +1

    Melhor aula sobre o tema!

  • @flesker7693
    @flesker7693 2 ปีที่แล้ว +2

    A melhor didática! Que canal perfeito!

  • @danielmarques571
    @danielmarques571 4 ปีที่แล้ว +2

    Excelente explicação! Sou enfermeiro e estou no começo de meus estudos em Machine Learning e Inteligência artificial. Achei sua aula muito didática, de modo que estou conseguindo compreender muito melhor os assuntos. Muito obrigado!

  • @gefett
    @gefett 3 ปีที่แล้ว +1

    Um dos melhores canais. Aqui dou like antes de começar o vídeo porque já sei que vem coisa boa. 3m 15 aulas tirei duvidas de Matemática que tinha a anos.

  • @joaoaraujo7030
    @joaoaraujo7030 4 ปีที่แล้ว +2

    Parabéns pela sua didática.. trabalho com regressão desde 1981 e sou engenheiro

  • @camus6525
    @camus6525 5 ปีที่แล้ว +1

    Cara, quase ninguém tem curso voltado pro Pytorch.
    Considere ser um pioneiro aqui no Brasil.

  • @andreluispereira7507
    @andreluispereira7507 3 ปีที่แล้ว +1

    É de levantar e aplaudir de pé uma aula dessa!

  • @marbellmartinho9637
    @marbellmartinho9637 3 ปีที่แล้ว +1

    você é o lider !!! muito obrigado por este video

  • @andredeoliveira3684
    @andredeoliveira3684 4 ปีที่แล้ว +1

    Cara, essa foi uma das melhores aulas que já assisti. Parabéns, continua nessa pegada porque precisamos de mais conteúdos relevantes

  • @gabrielmarques4228
    @gabrielmarques4228 4 ปีที่แล้ว +3

    Cara, meus sinceros parabéns. Que aula sensacional! Conseguiu atender muito bem o que se propôs e até superou as expectativas! Ainda não havia assistido nenhuma aula tão boa sobre o assunto.

  • @saposempe
    @saposempe 3 ปีที่แล้ว +1

    Que aula incrível, deveria ter muito mais views. Já tive aula na graduação e pós sobre o tema mas nunca nesse nível. Parabéns!

  • @henriquee91
    @henriquee91 4 ปีที่แล้ว +2

    Cara, esse video é muito bom, a forma que tu explica realmente faz a diferença. Já vi muitos videos, mas o teu realmente fez a diferença. Obrigado!

  • @rafaelpires9595
    @rafaelpires9595 4 ปีที่แล้ว +2

    Parabéns, vc muito didático. Faz jus ao nome do canal. Em todos os vídeos que assisti encontrei a mesma qualidade na explicação. Obrigado pelo conteúdo.

  • @seufagner
    @seufagner 5 ปีที่แล้ว +5

    Melhor explicação que já ouv sobre GD, sem fugir da matemática. Obrigado!

  • @raphaelbonillo2192
    @raphaelbonillo2192 4 ปีที่แล้ว

    Regressão linear é fácil de entender. Confesso, porém, que essa função de custo colocou bons obstáculos no caminho. Ótimo vídeo!

  • @joseclaudiofreitas
    @joseclaudiofreitas 3 ปีที่แล้ว

    Em primeiro lugar gostaria de agradecer pela boa vontade em compartilhar conhecimentos. Em segundo elogiar o professor que conseguiu passar o conteúdo muito bem. Finalmente registrar um pequeno equívoco no vídeo que não prejudica o entendimento: aos 40 minutos e 13 segundos o professor usa a derivada do custo em relação a b em vês da derivada do custo em relação a m.
    Mais uma vez muito obrigado e parabéns.

  • @jhonatandarochaleao6225
    @jhonatandarochaleao6225 2 ปีที่แล้ว +2

    Ótimo canal bem explicado e bem lincado

  • @giselapetroni7027
    @giselapetroni7027 3 ปีที่แล้ว +1

    Aula muito boa ... realmente didática é tudo ... vocês são o meu material de apoio. Muito obrigada

  • @brunadias4950
    @brunadias4950 3 ปีที่แล้ว

    MEU DEUS! TÚ MERECE UM PRÊMIO

  • @az.rafaelnascimento
    @az.rafaelnascimento 4 ปีที่แล้ว

    Parabéns pela aula! conteúdo bem explicado. Geralmente os conteúdos no TH-cam que tentam explicar algo são superficiais. Mas essa sim é uma aula bem fundamentada e bem explicada.

  • @Prakistamos
    @Prakistamos 4 ปีที่แล้ว +1

    Parabens, você é um verdadeiro didacta. Aprender assim ate parace fantasia

  • @Bostathelink
    @Bostathelink 5 ปีที่แล้ว +5

    Esplêndido!!! Melhor vídeo aula sobre o tema sem dúvidas!

  • @rod1rocks2
    @rod1rocks2 ปีที่แล้ว

    Aula muito bem explicada. Parabéns! E ganhou mais um seguidor! Obrigado por compartilhar conhecimento e explicar de forma didática! 👏👏👏

  • @chellytyler26
    @chellytyler26 4 ปีที่แล้ว +2

    Nossaaaaaaaaaaaaaaaaaaaaaa como sempre em todos os videos que vc apresenta fiquei de boca aberta. kkkkkkkkkk Ajudou muito no meu curso de pós graduação. Gratidão.

  • @browniemagico5811
    @browniemagico5811 ปีที่แล้ว

    cara...vc é maravilhos!!! É para louvar de pé! eu ouvi um amém??

  • @igorbrenno1459
    @igorbrenno1459 7 หลายเดือนก่อน +1

    O melhor do you tube

  • @analuciademoraislimalucial6039
    @analuciademoraislimalucial6039 3 ปีที่แล้ว

    Obrigada professor por transmitir esse conhecimento de maneira tão linda e simples!!!!!

  • @UendelRocha
    @UendelRocha 2 ปีที่แล้ว

    Curso excelente! Continue se aperfeiçoando. Muito obrigado por compartilhar seu conhecimento. Sugestão de marcadores: Board Master recarregáveis da Pilot.

  • @ericandersonferreiradossan3925
    @ericandersonferreiradossan3925 2 ปีที่แล้ว

    Que curso massa, muito obrigado!

  • @MarcosSantos-tq2ni
    @MarcosSantos-tq2ni 4 ปีที่แล้ว

    Cara muito obrigado por investir seu tempo em NÓS.. grande abraço.

  • @everton4135
    @everton4135 2 ปีที่แล้ว

    Suas aulas são ótimas!

  • @cinthiaandrade9124
    @cinthiaandrade9124 ปีที่แล้ว

    APENAS OBRIGADA!

  • @kellycarolina5679
    @kellycarolina5679 4 ปีที่แล้ว

    Gratidão por todas as aulas, são maravilhosas e com uma didática simples e explicativa.

  • @filipekaizer9760
    @filipekaizer9760 3 ปีที่แล้ว

    Muito bom, nunca tinha visto esse uso para a matemática.

  • @christian.m6656
    @christian.m6656 3 ปีที่แล้ว +1

    Ola, muito obrigado pela explicação! tenho muito interesse nesse assunto e gostei muito da sua didática, Valeu amigo.

  • @joaomelques2544
    @joaomelques2544 4 ปีที่แล้ว

    Parabéns demais pelas aulas!! Você tem uma didática absurda, MUITO obrigado.

  • @evertoncicerolongobresqui1386
    @evertoncicerolongobresqui1386 4 ปีที่แล้ว

    Parabéns aula muito boa, obrigado por compartilhar este conhecimento de forma gratuita.

  • @rdg8268
    @rdg8268 4 ปีที่แล้ว

    Caraca é o mesmo cara dó descomplicando a música, assim como eu temos duas paixões: música e tecnologia. Parabéns pela iniciativa e pela didática, quando vi que era você já sabia que a exploração ia ser top!

  • @renatocardoso8456
    @renatocardoso8456 3 ปีที่แล้ว

    Aula excelente em conteúdo e didática. Realmente muito boa
    Mas sugiro refazê-la, devido à forma. Uma aula tão boa não merece sofrer por falta de tinta 😉

  • @andressaagmm
    @andressaagmm 5 ปีที่แล้ว +1

    As melhores aulas são as suas, muito obrigada! Você tem uma excelente Didática, muito objetivo e simplifica muito os conceitos. Me ajudou muito nos meus estudos.

  • @jardelfialho9557
    @jardelfialho9557 4 ปีที่แล้ว +1

    Canal excelente, ótima didática!!! Parabéns e muito o brigado!!!!

  • @edmilsonsgjk
    @edmilsonsgjk 5 ปีที่แล้ว +1

    Parabéns pela aula!! Muito bom o canal, ótima explicação sem slides chatos.

  • @alaidefarias761
    @alaidefarias761 4 ปีที่แล้ว

    Excelente aula! Você conseguiu deixar o assunto bem elucidado.

  • @canaldesajustado
    @canaldesajustado 5 ปีที่แล้ว +3

    Sensacional, muito obrigado por compartilhar o seu conhecimento.

  • @AndreLuiz-dz1qk
    @AndreLuiz-dz1qk ปีที่แล้ว

    muito boa a aula, obrigado

  • @dyegofonseca4275
    @dyegofonseca4275 4 ปีที่แล้ว +1

    Olá, a explicação ficou bem bacana! Parabéns! No código: Os valores da derivadam*L e derivadab*L estão somando ao m e ao b. Eles deveriam estar subtraindo para convergir :)

  • @DaflonFernando
    @DaflonFernando 4 ปีที่แล้ว +1

    Muito obrigado. Finalmente a ficha caiu.

  • @felipebressane3733
    @felipebressane3733 4 ปีที่แล้ว +1

    Excelente aula, parabéns!!!

  • @IngenieriaFigata
    @IngenieriaFigata 4 หลายเดือนก่อน

    Excelente metodologia

  • @pmtxei
    @pmtxei 4 ปีที่แล้ว

    Magnífica aula!!!!!!!

  • @victorramospereira2474
    @victorramospereira2474 3 ปีที่แล้ว +1

    AGORA EU ENTENDI. EU ESTAVA CEGO, MAS AGORA EU VEJO

  • @Uellwar
    @Uellwar 3 ปีที่แล้ว

    Super aula! Obrigado 😉
    Agora é fazer muito exercícios pra fixar melhor kkkk

  • @kennethdeoliveira
    @kennethdeoliveira 5 ปีที่แล้ว +2

    Parabéns, bastante esclarecedor!

  • @paulomathias974
    @paulomathias974 4 ปีที่แล้ว +1

    Ótimo vídeo, parabéns pela didática!

  • @jmarcio51
    @jmarcio51 5 ปีที่แล้ว

    Parabéns professor, muito boa sua didática.

  • @venicioassuncao7622
    @venicioassuncao7622 3 ปีที่แล้ว

    Parabéns pela excelente explicação, melhor vídeo sobre GD. Estou iniciando em ML e gostaria de pedir um favor: Teria como compartilhar o código e os números que você mostrou no gráfico? Gostaria de aplicar pra consolidar o conhecimento. Obrigado!

  • @gtbronks
    @gtbronks 3 ปีที่แล้ว

    Excelente vídeo! Parabéns!

  • @ichNicoly
    @ichNicoly 4 ปีที่แล้ว +2

    aaaaahh me salvou, melhor explicação.

  • @endriobarros164
    @endriobarros164 5 ปีที่แล้ว +1

    Muito bom amigo!!!!!! Obrigado

  • @OceanAlves23
    @OceanAlves23 5 ปีที่แล้ว +1

    Thanks a lot for explanation, congratulations Big Buddy!

  • @fabiosousaaguiar
    @fabiosousaaguiar 5 ปีที่แล้ว +1

    Parabéns, me ajudou bastante, continue pf!

  •  3 ปีที่แล้ว +1

    Entendi tudo. Mas, também, com essa didática tem como não entender?

  • @alessandromedeiros1424
    @alessandromedeiros1424 ปีที่แล้ว

    O que você me indica como material (livros) para estudar função sigmoide e regressão logística? Parabéns

  • @regisalves4012
    @regisalves4012 7 หลายเดือนก่อน

    Eu sei que vcs vão dar risada do que vou comentar, mas enquanto ele explicava eu ia visualizando mentalmente lembrando do jogo Minecraft. Pra quem nunca jogou uma breve explicação: no jogo existem coordenadas X, Y e Z que representam seu posicionamento no mapa, as vezes para procurar algo vc precisa encontrar a exata posição daquele local colocando os valores exatos de X, Y e Z.
    Estou chocado que inconscientemente eu usava Gradiente Descendente no Minecraft e não sabia!

  • @vitorromano4555
    @vitorromano4555 4 ปีที่แล้ว

    Você poderia explicar o MMQ também? Usando matrizes (álgebra linear)?

  • @fabiom.6449
    @fabiom.6449 4 ปีที่แล้ว +1

    Obrigado, já tinha estudado tudo isso na facul e em uns 3 cursos diferentes mas essa é a primeira vez que consegui entender. Só fiquei com uma dúvida, como definir as constantes alfa e beta?

    •  4 ปีที่แล้ว +2

      Os parâmetros (como o learning rate) vão depender muito do problema em questão, geralmente se procura por tentativa e erro mesmo

  • @adrielcabral6634
    @adrielcabral6634 4 ปีที่แล้ว +1

    Em relação ao gráfico do erro em função do "m" e "b", vamos pegar como exemplo o "m", no gradiente estocástico é correto afirmar que terá 1 gráfico para cada amostra, tendo em vista que estamos pegando de uma em uma amostra para atualizar o meu "m" e no batch gradiente o gráfico será em relação a todas as amostras, já que ele calcula o erro de todos e depois atualiza o "m". Desculpa se a pergunta ficou um pouco confusa.

    •  4 ปีที่แล้ว +1

      Na realidade o gradiente estocástico não pega somente uma amostra, mas um lote de amostras (batch size) para fazer cada atualização. O gradiente descendente não-estocástico pega todas as amostras para fazer cada atualização.

    • @adrielcabral6634
      @adrielcabral6634 4 ปีที่แล้ว

      @ Obrigado pela resposta :)

  • @lemuelemos1
    @lemuelemos1 5 ปีที่แล้ว

    Cara, faz uma aula de filtro de kalman!

  • @rafagodofwar
    @rafagodofwar 4 ปีที่แล้ว

    ficou bom buscando exatamentoi isso, ciencia de dados, marchine learning

  • @holandonhdunto6808
    @holandonhdunto6808 3 ปีที่แล้ว +1

    O objetivo principal e somente reduzir o custo, mesmo quando acontece aquele erro que o numero fica gigante, tem que tocar os pesos pra recomeçar ou tem um erro no calculo?

  • @eduardoflavio3227
    @eduardoflavio3227 4 ปีที่แล้ว

    Muito bom!

  • @brunopastorello6038
    @brunopastorello6038 4 ปีที่แล้ว +1

    Ótimo video Parabéns e obrigado por compartilhar o conhecimento! Uma duvida com relação ao seu print (codigo python) e ao que foi mostrado na lousa durante aula: No print, m=m + L(d(custo)/dm) e na lousa m=m - L(d(custo)/dm). Tentei reproduzir o algoritmo, usando a formula do print (com "+") e os valores de m e b divergiram. Ai substitui o sinal da formula por "-" , ai sim m e b convergiram. Qual o porquê disso? Depende dos valores do chute inicial convergir ou divergir ou realmente a formula deve ser com "-"?

    •  4 ปีที่แล้ว +2

      É com "- " mesmo, mas tem outras questões que fazem convergir ou divergir, como clipping, coisa que não cheguei a abordar nesse vídeo. Desculpe a confusão, abraços

  • @fernandocoelhosaraivanando4522
    @fernandocoelhosaraivanando4522 4 ปีที่แล้ว +1

    muito bom!! eu só queria tirar uma dúvida, não sei se vou conseguir me expressar bem, mas é o seguinte: porque é necessário tirar a derivada da função de custo para corrigir o valor de 'm', eu não poderia só fazer a divisão do custo por 'm' e multiplicar pela constante, então corrigir 'm'...?

    •  4 ปีที่แล้ว +1

      A derivada da função de custo em relação a m revela a taxa de variação da função em relação a m (isso é útil para atualizar m). Dividir a função de custo por m revela quantas vezes o custo cabe em m (isso não tem muito significado prático para atualizar m).

  • @MatheusOrnelas777
    @MatheusOrnelas777 3 ปีที่แล้ว

    Muito bom brow, fico extremamente agradecido, sucesso o/

  • @nataliaresende2741
    @nataliaresende2741 4 ปีที่แล้ว

    Ameiiii

  • @igcesca
    @igcesca หลายเดือนก่อน

    Descomplicando a música? Ou o tech?

  • @adenilsonandrade1140
    @adenilsonandrade1140 3 ปีที่แล้ว

    Olha lá, é o cara do Descomplicando a música

  • @adrielcabral6634
    @adrielcabral6634 4 ปีที่แล้ว +1

    Desculpa se essa pergunta for um "tiro na matemática", mas ficou uma coisa na minha cabeça em relação a derivada parcial. Ela nos da a inclinação da reta tangente a curva naquele dado ponto, correto ? Nos queremos que essa inclinação chegue a zero, correto ?, porém e se a função de custo tiver muitos mínimos locais e globais, e muitos máximos locais e globais, ela pode acabar ficando presa em um, por exemplo, máximo local, já que a inclinação é zero ?

    •  4 ปีที่แล้ว +1

      Sempre há o risco de ficar preso em um mínimo local em vez de global, é um dos desafios de pesquisa dos métodos atuais de gradiente descendente. Porém não vai ficar preso em pontos de máximo local pois o gradiente caminha na direção de mínimo, não de máximo. Lembre-se que antes de chegar no ponto de derivada=0 existe um processo. Esse processo não anda para cima e sim para baixo

    • @adrielcabral6634
      @adrielcabral6634 4 ปีที่แล้ว

      @ entendi, obrigado pela explicação 😀

  • @benzavaleta92
    @benzavaleta92 4 ปีที่แล้ว +1

    Na função custo, se é elevado ao quadrado para não ter valores negativos, o erro tambem deveria ser ao quadrado ficando : custo^2 = (reg -y)^2 ??

    • @rodrigosantos8340
      @rodrigosantos8340 3 ปีที่แล้ว

      O ideal deveria ter um módulo, já que ele estava somando os erros

  • @cristianofroes4681
    @cristianofroes4681 3 ปีที่แล้ว

    impressão minha ou sua aula foi baseada na aula do Andrew NG? parabéns pela iniciativa, excelente aula.

    •  3 ปีที่แล้ว +1

      Não, na realidade foi mais inspirada em uma aula de Daniel Shiffman

    • @cristianofroes4681
      @cristianofroes4681 3 ปีที่แล้ว

      @ Bacana, meus parabéns de todo modo. Espero que não tenha entendido o comentário acima como critica e sim apenas como uma pergunta mesmo.

  •  4 ปีที่แล้ว

    Olá, tudo bem ? Parabéns pelo canal.
    Só uma duvida, para os coeficientes m e b, será que não seria interessante que no chute inicial fosse usado os resultados das estimativas feitas pelos MMQ ? Então para basicamente calcularia os valores de m e b pelo MMQ e usaria eles como primeira aproximação, creio que o algoritmo iria convergir mais rápido para os valores de m e b " ótimos ".

    •  4 ปีที่แล้ว

      Nesse caso simples poderia ser utilizado sim, mas quando o gradiente descendente é utilizado em problemas mais complexos como redes neurais, não há como fugir de uma inicialização randômica..

    •  4 ปีที่แล้ว

      @ Entendi... uma outra coisa que pensei para uma inicialização mais perto da ótima, seria selecionar dois pontos da base de dados aleatoriamente, no inicio da curva e no final, traçando uma reta entre eles, então como chute inicial usaria os coeficientes da reta que os liga.

  • @henriquemassareli
    @henriquemassareli 4 ปีที่แล้ว

    MUITO BOM MEU CHAPA

  • @irineuvitorino
    @irineuvitorino 2 ปีที่แล้ว

    show.

  • @gabrielbao3563
    @gabrielbao3563 3 ปีที่แล้ว +1

    Complemento: Vale lembrar que o Gradiente descendente é recomendado nos casos onde temos muitas dimensões, ou seja, muitas variáveis, no exemplo do vídeo é como se tivéssemos muitas variáveis x_i diferentes e um m_i diferente para cada x_i diferente, ele é muito usado neste contexto por causa que se usarmos o método dos mínimos quadrados para estimar os valores do b, e no caso dos m_i diferentes, igual é utilizado em regressão linear múltipla, acabamos tendo problemas nos casos de muitas dimensões, porque computacionalmente acaba sendo mais custoso e consumindo mais tempo, do que se utilizarmos o gradiente descendente.

  • @laurasimoes3115
    @laurasimoes3115 5 ปีที่แล้ว

    Adorei! Tenho uma duvida: o valor do m e do b tem que ser igual aos coeficientes calculados por Minimos Quadrados Ordinarios?

    •  5 ปีที่แล้ว +1

      Isso, a função de custo (que é a responsável pela otimização do problema) utiliza na maior parte das vezes mínimos quadrados ordinários (como nesse exemplo dessa aula). Mas em alguns algoritmos de machine learning é possível otimizar funções de outras formas, com ligeiras adaptações do OLS. No módulo 1 do nosso curso de machine learning, por exemplo, eu mostro o conceito de regularização, onde a função de custo usa OLS com alguns parâmetros extras

  • @kaizaconstroi8033
    @kaizaconstroi8033 4 ปีที่แล้ว +1

    nem acredito que consegui entender obrigado