¿Por qué usamos el gradiente para entrenar Redes Neuronales? Ejemplo - Deep Learning - (Parte 6)

แชร์
ฝัง
  • เผยแพร่เมื่อ 21 ก.พ. 2021
  • Si llegaron hasta este video, de verdad ¡muchas gracias!
    Al principio, pensé que esta serie sería principalmente práctica con un par de videos de teoría, pero van siete y creo faltan al menos un par más. No obstante, estamos casi por empezar implementando nuestros modelos en código. Este video es un ejemplo muy simple para tener una mejor intuición de cómo el gradiente, o en este ejemplo la derivada, funciona para estimar el impacto de una variable de entrada en la salida de una función. En el siguiente video se analizarán un par de pasos de descenso por gradientes en una arquitectura muy sencilla de Red Neuronal, lo que nos permitirá observar cómo nuestros parámetros W y b afectan nuestra función de Costo.
    Acerca de la serie Fundamentos de Deep Learning con Python y PyTorch:
    En esta serie de videos explico qué son las Redes Neuronales (Neural Networks) y qué es Aprendizaje Computacional (Machine Learning) así como Deep Learning. Empezamos con los principios matemáticos fundamentales hasta su implementación en código. Para esto, primero utilizaremos Python y Numpy para entender los principios de programación de Redes Neuronales incluyendo el algoritmo de retropropagación (backpropagation). Con estas bases, presentaremos el framework PyTorch y construiremos modelos más complejos como son Redes Neuronales Convolucionales (Convolutional Neural Networks - CNNs).
    About the video series:
    In this video series I will explain what Neural Networks are, and how Deep Neural Networks work, from the mathematical principles to their implementation in code. Firstly, we will use pure Python and Numpy to understand the fundamentals including backpropagation for a simple Fully Connected Network, and from there we will build on to Convolutional Neural Networks (CNN) using PyTorch. I will be uploading at least one new video every week until we reach different architectures of CNNs. Then, depending on the response and interest in the series I may cover newer models using Generative Adversarial Networks (GANs), and Recurrent Neural Networks.

ความคิดเห็น • 20

  • @dagcomunica5921
    @dagcomunica5921 6 หลายเดือนก่อน +1

    Sencillamente... excelente. Gracias profesor

    • @PepeCantoralPhD
      @PepeCantoralPhD  4 หลายเดือนก่อน

      De verdad aprecio muchísimo tu apoyo al canal y todos tus comentarios, y también muchas gracias por tu comprensión, ya que tardo bastante en responder! Saludos!

  • @user-hd4yy6du5f
    @user-hd4yy6du5f 10 หลายเดือนก่อน +1

    ¡¡Esto es una joya!! Es muy claro y ademas esta en Español.¡ Mil gracias por esta aportación!¡Eres genial!

  • @federicomorales5216
    @federicomorales5216 2 ปีที่แล้ว +4

    la verdad muy buena serie de videos. Muy clara, excelentemente explicado!

    • @PepeCantoralPhD
      @PepeCantoralPhD  2 ปีที่แล้ว

      Federico, muchas gracias por tu comentario. De verdad me motiva mucho para continuar publicando videos de este tema que me apasiona mucho. Saludos y todo lo mejor para el 2022!

  • @SRV900
    @SRV900 8 หลายเดือนก่อน +1

    Sigo con esta maratón de 53 videos!
    7/53 vistos. Pepe, lo seguí al pie de la letra! No terminé de entender en el minuto 4:30 por qué dz/dw = dz/dt x dt/dw.
    Gracias infinitas

    • @cailox
      @cailox 6 หลายเดือนก่อน +2

      Es porque "Z" depende de "T" y a su vez "T" depende de "W", entonces si quieres calcular la razón de cambio de una variable en particular, debes considerar a su vez las variables que la conforman para aplicar la regla de la cadena.

  • @Genesixs
    @Genesixs 7 หลายเดือนก่อน +1

    Thxs =)..

  • @juancarlos-bm5of
    @juancarlos-bm5of 2 ปีที่แล้ว +3

    this channel is pure gold, tanks you for video :D

    • @PepeCantoralPhD
      @PepeCantoralPhD  2 ปีที่แล้ว

      Juan Carlos! thanks a lot for your comment, I appreciate it deeply! All the best in 2022!!!

  • @jorgevalencia152
    @jorgevalencia152 ปีที่แล้ว +2

    el nivel es excelente... y la forma de explicarlo bastante claro; no me queda mas que agradecer sus conocimientos compartidos…gracias

    • @PepeCantoralPhD
      @PepeCantoralPhD  ปีที่แล้ว +1

      Muchísimas gracias Jorge! De verdad tu comentario me motiva para continuar con este proyecto. Muchos saludos y hasta pronto

  • @Jesus-fv3to
    @Jesus-fv3to 2 ปีที่แล้ว +3

    Me parece genial esta serie. He visto bastantes vídeos al respecto de distintas fuentes, incluso e hecho cursos al respecto y es contigo con quien mejor estoy asimilando conceptos. Gracias.

    • @PepeCantoralPhD
      @PepeCantoralPhD  2 ปีที่แล้ว

      Muchas gracias por tu comentario, de verdad me motiva mucho. Muchos saludos y hasta pronto!

  • @fellass88
    @fellass88 ปีที่แล้ว +1

    que buen video

  • @AlvaroLopez-ls3sl
    @AlvaroLopez-ls3sl ปีที่แล้ว +1

    tkm

    • @PepeCantoralPhD
      @PepeCantoralPhD  ปีที่แล้ว

      Muchas gracias por tu apoyo al canal! Muchos saludos!

  • @error220.5v5
    @error220.5v5 7 หลายเดือนก่อน

    aburrido....pongan esto para dormir..
    igual a mi profesor.
    la raiz de nueve es 3.
    por que saber...
    x2+x+8=1/2
    por que saber...
    pisen el examen....
    me vale.