Redes Neuronales Multi-Capa / Deep Neural Networks - Fundamentos de Deep Learning -(Teoría parte 11)

แชร์
ฝัง
  • เผยแพร่เมื่อ 6 ก.ย. 2024

ความคิดเห็น • 18

  • @Mati_rvmirez
    @Mati_rvmirez 7 หลายเดือนก่อน +1

    Muchísimas gracias a ti, salvaste mi tesis de magíster!!!

  • @guerreroalvarezedsonsaid4517
    @guerreroalvarezedsonsaid4517 8 วันที่ผ่านมา

    Gracias 🫶🏻🤘🏻🤘🏻

  • @didimoescobar2247
    @didimoescobar2247 9 หลายเดือนก่อน

    Es una gran y detallada explicación !!!!!!

  • @fellass88
    @fellass88 ปีที่แล้ว +1

    Buen video

    • @PepeCantoralPhD
      @PepeCantoralPhD  ปีที่แล้ว

      Muchas gracias por tu comentario! Muchos saludos!

  • @eduardocoyto2497
    @eduardocoyto2497 ปีที่แล้ว +1

    Pepe, te agradezco enormemente a vos por tu tiempo, dedicación y la excelente forma que tenes de transmitir el conocimiento! Abrazo

  • @AlejandraRamirez-vj3vf
    @AlejandraRamirez-vj3vf 11 หลายเดือนก่อน +2

    agradecerle a usted profe por semejante esfuerzo al explicar todo esto 🙂

    • @PepeCantoralPhD
      @PepeCantoralPhD  11 หลายเดือนก่อน

      De verdad muchas gracias por tu comentario! Saludos!

  • @luismiguelpatinobuendia5141
    @luismiguelpatinobuendia5141 ปีที่แล้ว +1

    Me fascina observar como tu contenido aumenta muchísimo su calidad a medida que sigues el curso

    • @PepeCantoralPhD
      @PepeCantoralPhD  ปีที่แล้ว +1

      Muchísimas gracias por tu comentario, me motiva enormemente!!!

  • @adriangalindo402
    @adriangalindo402 ปีที่แล้ว +2

    Me gusta mucho ver tus videos, están muy buenos
    ☝️🤓

  •  2 ปีที่แล้ว +3

    gracias deseaba aprender la formula de deep learning

    • @PepeCantoralPhD
      @PepeCantoralPhD  2 ปีที่แล้ว

      Muchas gracias por tu comentario y apoyo! Saludos!

  • @LeonardoEnriqueMorenoFlores
    @LeonardoEnriqueMorenoFlores 3 ปีที่แล้ว +1

    Hola Pepe soy Leonardo Moreno y te escribo desde chile y tengo una consulta como se resuelve la (da2/dz2) siendo que a2 es la salida de la capa ReLU.

    • @PepeCantoralPhD
      @PepeCantoralPhD  3 ปีที่แล้ว +1

      Hola Leonardo, muchas gracias por tu comentario y tu pregunta, es una excelente pregunta. En este caso, lo importante es analizar que la función ReLU puede verse como la combinación de dos funciones, llamemos Z a la entrada de la función ReLU y A a la salida de la función ReLU, entonces
      ReLU está dada por A=max(0, Z), es decir los valores negativos de entrada se truncan a zero y los positivos se dejan pasar tal cual, sin ningún cambio. Dicho de otra forma,
      A=0, en el intervalo Z de -infinito a 0
      A=Z, en el intervalo de Z de 0 a +infinito
      Entonces, nos podemos dar cuenta que dA/dZ = 0, cuando Z es negativo, y dA/dZ= 1, cuando Z es positivo. Estrictamente, dA/dZ está indefinido cuando Z=0, sin embargo usualmente no hacemos caso de esto e incluimos el 0 como si fuera un número positivo.
      Así, en resumen, tenemos que el gradiente es 1 cuando Z es positivo, y 0 cuando Z es negativo, y listo! Esto se traduce en que al momento de hacer la retro propagación, el gradiente que llega a la capa de ReLU, por ejemplo dJ/dA, se deja pasar tal cual a las neuronas (Z) de la capa previa a la capa ReLU que tenían valores Z positivos, y no se retropropaga ningún gradiente a las neuronas de la capa previa con valores Z negativos.
      A veces me resulta más fácil interpretar el código, donde retropropagamos este gradiente de la siguiente manera:
      dz[z

    • @LeonardoEnriqueMorenoFlores
      @LeonardoEnriqueMorenoFlores 3 ปีที่แล้ว

      @@PepeCantoralPhD Muchísimas gracias, he estado viendo los videos que haz publicado sobre redes neuronales y me inspiraste a realizarlo c#, muchas gracias.

    • @PepeCantoralPhD
      @PepeCantoralPhD  2 ปีที่แล้ว

      Súper interesante tu proyecto, mucho éxito! Saludos