Funciones de Activación de Redes Neuronales: Sigmoide, ReLU, ELU, Tangente hiperbólica, Softplus y ➕

แชร์
ฝัง
  • เผยแพร่เมื่อ 2 ก.ค. 2024
  • Las redes neuronales profundas están compuestas de múltiples neuronas artificiales. En el núcleo de esas neuronas se encuentran las funciones de activación que definen la salida de las neuronas. Este video explica 10 tipos de funciones de activación y cuándo y por qué se utiliza cada una de ellas.
    Gutiérrez-García, J.O. [Código Máquina]. (2024, 26 de Mayo). Funciones de Activación de Redes Neuronales: Sigmoide, ReLU, ELU, Tangente hiperbólica, Softplus y + [Video]. TH-cam. [Incluye aquí la URL del video]
    ********************************************
    Para guiar tu aprendizaje, en este vínculo ( • Curso de Inteligencia ... ) se encuentra una guía secuencial para aprender:
    1. Programación Básica con Python;
    2. Manejo de Datos;
    3. Visualización de Datos;
    4. Análisis de Datos; y
    5. Aprendizaje de Máquina y Ciencia de Datos.
    ********************************************
    Índice del Video:
    0:00 Introducción
    0:35 Qué es una función de activación
    2:22 Función escalón
    5:14 Función lineal
    8:02 Función sigmoide
    13:30 Función tangente hiperbólica
    14:36 Función arcotangente
    16:29 Función ReLU
    18:52 Leaky ReLU y ReLU paramétrica
    21:16 Función ELU
    23:23 Función Softplus
    Apoya a Código Máquina dando un Like, con un Super Gracias o visitando nuestra tienda en: / shop
    ⭐ De la co-fundadora de Código Máquina, productos de cosmética natural SINHAKI:
    www.amazon.com.mx/s?srs=12094...
    #DeepLearning #AprendizajeProfundo #MachineLearning #IA #AI #InteligenciaArtificial #AprendizajeAutomático #AprendizajeDeMaquina

ความคิดเห็น • 15

  • @CodigoMaquina
    @CodigoMaquina  หลายเดือนก่อน +2

    Apoya a Código Máquina dando un Like, con un Super Gracias o visitando nuestra tienda en facebook.com/C0d1g0Maqu1na/shop

  • @reinerromero7265
    @reinerromero7265 หลายเดือนก่อน +3

    Excelente presentación. 😄 Como siempre las láminas, las referencias, la explicación, todo impecable.

    • @CodigoMaquina
      @CodigoMaquina  หลายเดือนก่อน

      @reinerromero7265 muchas gracias por el ánimo y por el apoyo.

  • @OmarHernandez-ey2dg
    @OmarHernandez-ey2dg หลายเดือนก่อน

    que emoción cada que hay nuevo video! no saben cuanto me ha servido su canal para explicar los temas que en mi clase no quedan claros!

  • @pptmtz
    @pptmtz หลายเดือนก่อน +1

    Muchas gracias Prof!

  • @gustavojuantorena
    @gustavojuantorena หลายเดือนก่อน +2

    Excelente. Sigan así!

    • @CodigoMaquina
      @CodigoMaquina  หลายเดือนก่อน

      @gustavojuantorena muchas gracias por el ánimo y por el continuo apoyo que siempre brindas al canal

  • @jorgelombardi169
    @jorgelombardi169 7 วันที่ผ่านมา +1

    Eduardo sos un genio, excelente el contenido que subis!

    • @CodigoMaquina
      @CodigoMaquina  7 วันที่ผ่านมา

      @jorgelombardi169 muchas gracias por seguir el contenido del canal y por tus comentarios :)

  • @_ediedi
    @_ediedi หลายเดือนก่อน

    Como siempre, excelente y maravilloso contenido de calidad, profe! Sería interesante que sacara un video explicando los Transformers. ¡Saludos!

  • @Acrhonoz
    @Acrhonoz หลายเดือนก่อน +6

    No no no no mi Oct, apenas y voy en la Intro y ya estoy maravillado. Así se deberían de explicar, porque esta cuestión suele ser muy oscura en los libros de texto. Contenido de gran, grandísimo valor. Te mando un abrazo sumamente fraterno.

    • @CodigoMaquina
      @CodigoMaquina  หลายเดือนก่อน

      @Acrhonoz un gran abrazo virtual. Ciertamente, las funciones de activación no reciben tanta atención como deberían, de ahí que hagamos este esfuerzo de difusión. Son temas muy relevantes. Muchas gracias por interactuar continuamente con el contenido del canal y por las palabras que nos has regalado.

    • @GeraltAI
      @GeraltAI หลายเดือนก่อน

      Pues que libros lees, bro? En todos los que he leído viene explicado muy claramente

    • @Acrhonoz
      @Acrhonoz หลายเดือนก่อน

      @@GeraltAI más bien tu que en TODOS los que has leído está explicado muy bien, dime cuáles son. Ilústrame y si los tienes rólalos. Ya sabes, así somos de pendejos los matemáticos.

    • @GeraltAI
      @GeraltAI หลายเดือนก่อน

      @@Acrhonoz ni vrga. Los físicos no compartimos nuestros libros. Pero busca en libgen.