Funciones de Activación de Redes Neuronales: Sigmoide, ReLU, ELU, Tangente hiperbólica, Softplus y ➕
ฝัง
- เผยแพร่เมื่อ 2 ก.ค. 2024
- Las redes neuronales profundas están compuestas de múltiples neuronas artificiales. En el núcleo de esas neuronas se encuentran las funciones de activación que definen la salida de las neuronas. Este video explica 10 tipos de funciones de activación y cuándo y por qué se utiliza cada una de ellas.
Gutiérrez-García, J.O. [Código Máquina]. (2024, 26 de Mayo). Funciones de Activación de Redes Neuronales: Sigmoide, ReLU, ELU, Tangente hiperbólica, Softplus y + [Video]. TH-cam. [Incluye aquí la URL del video]
********************************************
Para guiar tu aprendizaje, en este vínculo ( • Curso de Inteligencia ... ) se encuentra una guía secuencial para aprender:
1. Programación Básica con Python;
2. Manejo de Datos;
3. Visualización de Datos;
4. Análisis de Datos; y
5. Aprendizaje de Máquina y Ciencia de Datos.
********************************************
Índice del Video:
0:00 Introducción
0:35 Qué es una función de activación
2:22 Función escalón
5:14 Función lineal
8:02 Función sigmoide
13:30 Función tangente hiperbólica
14:36 Función arcotangente
16:29 Función ReLU
18:52 Leaky ReLU y ReLU paramétrica
21:16 Función ELU
23:23 Función Softplus
Apoya a Código Máquina dando un Like, con un Super Gracias o visitando nuestra tienda en: / shop
⭐ De la co-fundadora de Código Máquina, productos de cosmética natural SINHAKI:
www.amazon.com.mx/s?srs=12094...
#DeepLearning #AprendizajeProfundo #MachineLearning #IA #AI #InteligenciaArtificial #AprendizajeAutomático #AprendizajeDeMaquina
Apoya a Código Máquina dando un Like, con un Super Gracias o visitando nuestra tienda en facebook.com/C0d1g0Maqu1na/shop
Excelente presentación. 😄 Como siempre las láminas, las referencias, la explicación, todo impecable.
@reinerromero7265 muchas gracias por el ánimo y por el apoyo.
que emoción cada que hay nuevo video! no saben cuanto me ha servido su canal para explicar los temas que en mi clase no quedan claros!
Muchas gracias Prof!
Excelente. Sigan así!
@gustavojuantorena muchas gracias por el ánimo y por el continuo apoyo que siempre brindas al canal
Eduardo sos un genio, excelente el contenido que subis!
@jorgelombardi169 muchas gracias por seguir el contenido del canal y por tus comentarios :)
Como siempre, excelente y maravilloso contenido de calidad, profe! Sería interesante que sacara un video explicando los Transformers. ¡Saludos!
No no no no mi Oct, apenas y voy en la Intro y ya estoy maravillado. Así se deberían de explicar, porque esta cuestión suele ser muy oscura en los libros de texto. Contenido de gran, grandísimo valor. Te mando un abrazo sumamente fraterno.
@Acrhonoz un gran abrazo virtual. Ciertamente, las funciones de activación no reciben tanta atención como deberían, de ahí que hagamos este esfuerzo de difusión. Son temas muy relevantes. Muchas gracias por interactuar continuamente con el contenido del canal y por las palabras que nos has regalado.
Pues que libros lees, bro? En todos los que he leído viene explicado muy claramente
@@GeraltAI más bien tu que en TODOS los que has leído está explicado muy bien, dime cuáles son. Ilústrame y si los tienes rólalos. Ya sabes, así somos de pendejos los matemáticos.
@@Acrhonoz ni vrga. Los físicos no compartimos nuestros libros. Pero busca en libgen.