3.- Redes Neuronales: Fácil y desde cero

แชร์
ฝัง
  • เผยแพร่เมื่อ 27 มิ.ย. 2015
  • Minicurso de redes neuronales que explica paso a paso la construcción de un perceptrón multicapa.
    Los perceptrones se usan frecuentemente en el ámbito de la inteligencia artifical para predecir o agrupar datos que no son fáciles de tratar con los algoritmos tradicionales.
    Libro que resume el curso:
    openlibra.com/es/book/downloa...
    Escrito por Rafael Alberto Moreno Parra

ความคิดเห็น • 128

  • @marto99100
    @marto99100 4 ปีที่แล้ว +10

    Wow, 5 años después del lanzamiento del vídeo sigue siendo tremendamente útil! Muchas Gracias!

  • @Robinso516
    @Robinso516 7 ปีที่แล้ว +29

    Muchas veces pierdo el interés al estudiar porque se acumulan pequeños detalles que no entiendo hasta que son demasiados y me aburro. Este no es el caso, porque dejas muy claro cada concepto, asi que al contrario de lo que podría parecer, el explicar cada detalle antes de pasar al siguiente concepto es algo que alarga el video pero al mismo tiempo evita que el espectador pierda interes. Felicitaciones!

  • @tinchoh6476
    @tinchoh6476 9 ปีที่แล้ว +58

    Impresionante! No te preocupes por cuánto demoran tus vídeos, al menos a mí siempre me parecen un pestaneo. Felicitaciones!!

    • @Javier_Garcia
      @Javier_Garcia  9 ปีที่แล้ว +37

      Martín Hernández Ostras, me acabas de animar la tarde porque creo que mis vídeos son demasiado largos, aunque también es cierto que es mejor ir paso a paso con todo detalle para entenderlo todo al 100% y luego estar más seguros de cara a la programación de la red. Muchas gracias por tu comentario!

    • @tinchoh6476
      @tinchoh6476 9 ปีที่แล้ว +2

      Efectivamente, y estoy seguro que a más de uno le pasa lo mismo, que en un plis plas uno se queda ansioso de que llegue otro nuevo vídeo. Saludos desde Uruguay, Javier!

  • @fasetconasa
    @fasetconasa 6 ปีที่แล้ว +9

    Tienes el don para "transmitir conocimiento", muchas gracias por tu tiempo, es difícil encontrar a alguien con esta capacidad de exponer un tema complejo y desarrollarlo demostrándolo de forma amena y sencilla, muchisimas gracias por el curso, de verdad que tras acudir a varias exposiciones sobre el tema.. verte exponer de esta manera da gusto. Sigue haciendo cursos por favor. Un saludo.

  • @caligaridotor5799
    @caligaridotor5799 8 ปีที่แล้ว +14

    Javier García...tienes talento y pedagogía. Muchas gracias.

  • @jesusvasquez2166
    @jesusvasquez2166 8 ปีที่แล้ว +9

    Excelente explicación. Creo que es la mejor que he escuchado en este tema. Gracias.

    • @Javier_Garcia
      @Javier_Garcia  8 ปีที่แล้ว

      +Jesus Vasquez Muchas gracias Jesús! Me anima mucho tus palabras!

  • @gilbertofelix4451
    @gilbertofelix4451 6 ปีที่แล้ว +1

    Admirable tu forma de enseñar, gracias por compartir el conocimiento.

  • @hwpoison
    @hwpoison 9 ปีที่แล้ว +12

    Genial,faltaba un curso como este, es unico, asi como tu eficaz modo de explicar cosas como estas, saludos!

    • @Javier_Garcia
      @Javier_Garcia  9 ปีที่แล้ว +2

      RokerLauncher96 Muchas gracias! Estoy muy contento de que este curso te sirva

  • @Ucci73
    @Ucci73 3 ปีที่แล้ว +1

    Excelente explicación!
    REALMENTE aprendemos muy bien con tus explicaciones!
    Gracias x ser tan didáctico, eres un muy buen transmisor de conocimientos!

  • @Soloreleo
    @Soloreleo 7 ปีที่แล้ว +8

    Muy buen video. Toda la serie. De lo mejor que he visto en mucho tiempo. Explicado de forma que podria entenderlo hasta un niño de 5 años.
    (Groucho Marx: "¡Rápido!, busquen a un niño de 5 años.")

    • @Javier_Garcia
      @Javier_Garcia  7 ปีที่แล้ว +1

      Muchas gracias Antonio!!

    • @floppxxx
      @floppxxx 7 ปีที่แล้ว

      un niño de 2 años no 5

    • @elektrotubbie
      @elektrotubbie 6 ปีที่แล้ว +1

      Posiblemente tengas 5 años o menos.
      Nunca he entendido a la gente que dice "esto podría entenderlo un niño de x años". Evidentemente estos sujetos lo entienden porque ya lo saben, si no no podrían decir que está bien explicado.

  • @LUMEDO57
    @LUMEDO57 7 ปีที่แล้ว

    Muchas GRACIAS Excelente trabajo de divulgación. Mejor explicado imposible.

  • @juancedenog
    @juancedenog 5 ปีที่แล้ว +1

    Genial, claro y directo. Lo felicito y muchísimas gracias por compartir sus conocimientos.

  • @MILTONVMHV
    @MILTONVMHV 9 ปีที่แล้ว +2

    Gracias por el video, nunca entendí los cálculos en la universidad y tu video me aclaro todo. Muy bien explicado todo.

  • @marcopatriciolunaludena2039
    @marcopatriciolunaludena2039 8 ปีที่แล้ว

    Gracias Javier, me está ayudando muchísmo este minicurso. Excelente pedagogía. Saludos desde Ecuador.

  • @DaniDecoder
    @DaniDecoder 5 ปีที่แล้ว

    Sin duda eres MUY bueno explicando. Y el lenguaje coloquial ayuda mucho. Gracias por esta serie de videos.

  • @oscarjimenez3340
    @oscarjimenez3340 5 ปีที่แล้ว

    Gracias por compartir tus conocimientos!!! Super clases!!!

  • @iagolobla
    @iagolobla 7 ปีที่แล้ว +1

    Es la mejor explicación que he recibido nunca sobre algún tema, sencillamente perfecto. Muchas gracias y te animo a que sigas así.

  • @danii1408
    @danii1408 6 ปีที่แล้ว

    Increíble que una persona con tanto conocimiento y don de transmitir no esté en una universidad. Muchas gracias por tus vídeos!

  • @luismc737373
    @luismc737373 8 ปีที่แล้ว

    Muy didáctico, me salvaste la vida... infinitas gracias!!!!

  • @pabloluisquinones
    @pabloluisquinones 9 ปีที่แล้ว +1

    Excelentes los videos!

  • @antoniogolem
    @antoniogolem 4 ปีที่แล้ว

    Estudio psicología y me fascina este tema, que yo sepa no lo vemos en ninguna profundidad en mi carrera (paso a tercero) muchas gracias por este cursillo, aunque ya había consultado otros este me parece con mucha diferencia el más claro, desgranando cada uno de los conceptos para que pueda entenderse. no te preocupes por la longitud de los vídeos, al estar recibiendo todo el rato información nueva y útil, se hacen muy amenos.

  • @jorgeromeu
    @jorgeromeu 6 ปีที่แล้ว

    Muchas gracias, me has clarificado algunos conceptos que no lograba combrender.

  • @marcelperret
    @marcelperret 8 ปีที่แล้ว

    Muchisimas gracias!!!! No sabes la ayuda que me has proporcionado con este video, felicitciones por la didàctica, ha estado genial!!

  • @lilHoodRD
    @lilHoodRD ปีที่แล้ว

    Wow... la satisfacción que sentí al ver el ejemplo de las derivadas parciales... :O... Sin palabras... Por fin entendí esas benditas derivadas parciales...
    Gracias!!!

  • @adelvalle20100
    @adelvalle20100 5 ปีที่แล้ว

    Estimado Martín Hermadez, estoy iniciando en este tema, y la verdad que son muy bueno los vídeo que ha realizado. Aguardamos por una nueva entrega. Saludos desde Uruguay.

  • @posti85
    @posti85 4 ปีที่แล้ว

    Estudié esto en la carrera, pero después de 15 años solo recuerdo que me encantó y pequeños esbozos. Con estas explicaciones lo he vuelto a recordar todo, muchísimas gracias!

  • @ctroxhck
    @ctroxhck 7 ปีที่แล้ว

    Muy buena manera de explicar ..gracias!!

  • @hiend266
    @hiend266 9 ปีที่แล้ว +1

    Excelente vídeo!

  • @gbrieldcg
    @gbrieldcg 8 ปีที่แล้ว

    Qué buen material, muchísimas gracias!

  • @Magistrado1914
    @Magistrado1914 3 ปีที่แล้ว

    Excelente curso
    Visto en 16/11/2020

  • @bengienickSerrano
    @bengienickSerrano 8 ปีที่แล้ว

    Buen video, muchas gracias y saludos.

  • @lucianogrion9345
    @lucianogrion9345 7 ปีที่แล้ว +3

    la patita U (que es extra) es igual a 1 para poder hacer la negación si la necesita como valores negativos.

  • @antoniocorona101
    @antoniocorona101 7 ปีที่แล้ว

    Muchas gracias por tu video!

  • @josuevargas7252
    @josuevargas7252 3 ปีที่แล้ว

    Llevo 2 videos y he aprendido mas que las 2 semanas que he estadod leyendo el tema.Excelente aporte

  • @pietropescifeltri1835
    @pietropescifeltri1835 4 ปีที่แล้ว

    He estudiado y utilizado redes neuronales, y tu explicación es muy buena y detallada. Felicitaciones. Técnicamente hablando, la U que usas puede ser sustituida por una neurona mas en posición 0 con valor Z inmutable, a ser usadas en todas las capas menos la última. Saludos.

  • @saul1265
    @saul1265 4 ปีที่แล้ว

    Muy buen contenido, de gran ayuda para comprender mejor este tema. Estoy llevando actualmente esta materia y se me ha estado complicando comprender, tus vídeos me están sirviendo mucho.

  • @Carlos-so6yf
    @Carlos-so6yf 6 ปีที่แล้ว

    La maldita caja!!!, Primera vez que me explican derivadas parciales de ese modo!!, excelente

  • @toribiorodri908
    @toribiorodri908 8 ปีที่แล้ว

    Excelente explicación

  • @ingridbarrientospalomino4764
    @ingridbarrientospalomino4764 ปีที่แล้ว

    Buenísimo, super bien explicado

  • @fedederacionagrariaregiona388
    @fedederacionagrariaregiona388 8 ปีที่แล้ว

    excelente explicacion

  • @VictorCampoblanco
    @VictorCampoblanco 8 ปีที่แล้ว +1

    Hola. Gracias por la explicación. Estudió neurociencia y había escuchado de las aplicaciones de redes neuronales para programación pero nunca había estudiado sobre ellas. Sin embargo, tu vídeo es tan entendible y ordenado que empecé a entender todo desde el primer minuto.
    Felicidades. Tienes una gran habilidad para transmitir información. Es algo muy escaso no sólo entre youtubers sino entre profesores. Saludos.

    • @Javier_Garcia
      @Javier_Garcia  8 ปีที่แล้ว +2

      +Victor Manuel Sánchez Campoblanco Muchas gracias!! :)

  • @annavaldivia474
    @annavaldivia474 7 ปีที่แล้ว +3

    Vídeo muy divulgativo!! :)

  • @gasu3377
    @gasu3377 9 ปีที่แล้ว

    exelente!!!

  • @Dennis-gg9yv
    @Dennis-gg9yv 6 ปีที่แล้ว

    54 minutos de redes neuronales, me lo voy a gozar como un niño.

  • @agustinjoe
    @agustinjoe 6 ปีที่แล้ว

    Gracias!

  • @guillermosanchez1719
    @guillermosanchez1719 7 ปีที่แล้ว +4

    Hola, antes que nada, felicidades y gracias por tan buenos videos, una pregunta, en el minuto 14:40 dices que si el umbral es alto positivo, saldra cero independientemente de lo demas, y si es alto negativo, saldra uno, ¿No sería al contrario? Gracias y un saludo.

  • @sergiozei1
    @sergiozei1 ปีที่แล้ว

    Javier, realmente útil. Hay mucha información de IA y redes neuronales por la red, pero no se encuentra este contenido fácilmente. No puedo evitar comparar el proceso de aprendizaje de mis hijas, pequeñas, con las redes neuronales, porque parece que el entrenamiento es una clave similar, y el 'conocimiento adquirido' es 'implícito', pero ahí está... ¿cómo se puede medir el 'conocimiento adquirido por una red'? Te pueden dar un perceptrón 'entrenado en mil batallas', o 'recién nacido'... ¿que adjunten el Curriculum?

  • @davidmata3104
    @davidmata3104 7 ปีที่แล้ว

    Hola Javier, para empezar muchas gracias por tus videos, son exelentes y tus explicaciones permiten entender perfectamente. Ahora quiero pregutarte como cambia el algoritmo de backpropagation si cambiamos la funcion de activacion? Es decir, ahora sabemos que las funciones de activacion que acotan la salida como lo es sigmoid o tanh producen inconvenientes como el problema de vanishing gradient. Por lo que funciones de activacion como RELU (Rectified Linear Unit) o aun mejor Leaky ReLUs han sido introducidos.
    Volviendo a la pregunta. ¿Como cambia el algoritmo de backpropagation si cambiamos la funcion de activacion a un RELU?

  • @caquijano
    @caquijano 8 ปีที่แล้ว

    gracias viejo

  • @angelo4222
    @angelo4222 4 ปีที่แล้ว

    Fantastico!!

  • @omnoite
    @omnoite 5 ปีที่แล้ว

    he visto los 3 episodios del tirón y aun me cuesta entenderlo
    lo volveré a mirar, es muy interesante

  • @jggarquitectura
    @jggarquitectura 8 ปีที่แล้ว +2

    Si os sirve de algo, a mi me han hecho dos intervenciones con en el cerebro abierto duranrte varias horas y lo que pude ver en 3 o cuatro ocasiones fue unas matrices de colores con perfecta geometria . no se movian. perdon por no seguir protocolos que desconozco.

  • @RonaldJavierL
    @RonaldJavierL 7 ปีที่แล้ว

    Estoy iniciándome en las Redes Neuronales, y me parece muy excelente su explicación. Estoy interesado en aplicarlo a temas educativos, por ejemplo Deserción Escolar. Estimado Javier García, ¿alguna sugerencia al respecto? Saludos desde Perú.

  • @javimerinero
    @javimerinero 6 ปีที่แล้ว

    Jolines, es muy buena idea esto de dar clases con rigor por youtube. Mooola

  • @gustavovelazquez8272
    @gustavovelazquez8272 6 ปีที่แล้ว

    las idas y vueltas de los colores y los baches entre la explicacion... termina siendo un lio de cosas.

  • @breakersrc
    @breakersrc 5 ปีที่แล้ว

    Muy bueno tus vídeos, las matemáticas no es lo mio, pero te expresas sin necesidad de exprimir mi coco ajaja!! buena explicación se te da bien esto! saludos.

  •  5 ปีที่แล้ว

    Gracias por explicar el significado de redes neuronales de manera tan sencilla. Tenía curiosidad de saber qué era. Hay un pequeño fallo: en lugar de poner derivada parcial de f respecto u debería poner f'.

  • @JosueA_455
    @JosueA_455 7 ปีที่แล้ว

    Hola. queria preguntarte, al final del vidoe hablas de programar, tienes algun software o algo asi que recomiendes, ya que se muy poco pero estoy muy interesado en el tema, espero me puedas colaborar por favor
    excelente video, gracias

  • @pokeburro
    @pokeburro 8 ปีที่แล้ว +1

    amigo soy nuevo en el mundo de la programación, puedes recomendar algún temario para comprender todos los términos matemáticos que se utilizan en la programación, y tambien que lenguajes o temarios abordar antes de adentrarnos a las rna, saludos, exelentes videos

    • @Javier_Garcia
      @Javier_Garcia  8 ปีที่แล้ว +1

      +Poke Loke Hola Poke, pues te recomendaría que repasaras las funciones y sus derivadas. Tanto de una variable como de varias. Una vez hecho esto, tendrías que estudiar a fondo la optimización de funciones de varias variables. Ánimo!

  • @cherrejim
    @cherrejim 8 ปีที่แล้ว +4

    Muchas gracias. Lo explicas genial. ¿Puedes recomendar literatura o Web donde expliquen como implementarlo?
    Yo lo quiero hacer en python pero pero me da igual ver la explicación en otro lenguaje. Gracias.

    • @ferrii7
      @ferrii7 7 ปีที่แล้ว +1

      neuralnetworksanddeeplearning.com/chap1.html

    • @Dennis-gg9yv
      @Dennis-gg9yv 6 ปีที่แล้ว

      Y si no sabes ingles?

  • @litboy5486
    @litboy5486 8 ปีที่แล้ว +10

    Javier... Lo has conseguido: soy fan de las redes neuronales.
    Una pregunta: ¿hay alguna regla para determinar el número de neurona en las capas ocultas?

    • @GozuTrader
      @GozuTrader 6 ปีที่แล้ว

      si es la raices cuadrada de las n:entrada y las m:salidas , saludos

    • @alfonsaayllon6536
      @alfonsaayllon6536 5 ปีที่แล้ว

      @@GozuTrader alguna fuente porfavor ya que muchos dicen que un tanto como d juego ,claro sin Exagerar

  • @AnaKinC
    @AnaKinC 4 ปีที่แล้ว +1

    Estimado, no se entiendo la razon conceptual por la cual estas buscando la derivada, me gustaria entender por que estoy buscando la derivda de la funcion ya que estuve esperando por que estamos haciendo esto pero no vi por que.

  • @nelsongg347
    @nelsongg347 6 ปีที่แล้ว

    Gracias Javier! Alguien tiene el codigo Java?

  • @patapooka
    @patapooka 6 ปีที่แล้ว

    tremendos videos, algún libro en español de redes neuronales que me recomienden? gracias :)

  • @davidmata3104
    @davidmata3104 7 ปีที่แล้ว

    ¿Que diferencia hay entre usar sigmoid function y tanh function?
    ¿Como afecta en una funcion linear? Yo he leido que usar funciones de activacion lineares la rede pierde su poder de aproximarse a funciones no lineares. Por ejemplo si usas una red neuronal que se puede aproximar a una funcion XNOR utilizando una funcion ReLu y la cambias ReLu por una furncion de activacion linear, la red neuronal no podra aproximarse a la funcion XNOR. Pero no se porque.

  • @GabrielHidalgo796
    @GabrielHidalgo796 4 ปีที่แล้ว +1

    Excelente Video !!!. Una pregunta, que soft utilizas como pizarron , para la explicación?. Muchas Gracias.

  • @paolosandoval1222
    @paolosandoval1222 5 ปีที่แล้ว

    En el minuto 17:30 cuando dice ... "...voy a calcular la derivada en dos segundos ... ", el desarrollo lo hace aplicando la regla de la cadena que luego menciona un par de minutos más adelante diciendo la importancia que ella tiene.

  • @panchaleon9679
    @panchaleon9679 4 ปีที่แล้ว

    profe usted cree que me pueda decir que programa usa como pizzara para enseñarnos ?

  • @fharis13
    @fharis13 5 ปีที่แล้ว

    impresionante

  • @lolosanchez943
    @lolosanchez943 7 ปีที่แล้ว

    Algun ejemplo echo con Matlab por ahí ??

  • @rafaelmendez718
    @rafaelmendez718 4 ปีที่แล้ว

    muy buen vídeo, pero tengo una pregunta los pesos es decir "w" y el umbral "u" se inicializan aleatoriamente ? si es así con en que rango de numeros sería el numero aleatorio ?

    • @acbbed3652
      @acbbed3652 2 ปีที่แล้ว

      Yo lo he hecho en python dando valores aleatorios con la función Random, si al hacer el test no da buenos resultados vuelvo a obtener nuevos valores Random y a probar.

  • @pabloramirezramos5918
    @pabloramirezramos5918 5 ปีที่แล้ว

    Hola Javier, una preguntilla: por que en el 31:29 afirmas que la derivada parcial de f con respecto u se puede expresar en funcion de ella misma: eso no ocurre al hacer cualquier derivada, no? Solo en la del ejemplo de la sigmoide (1+e^-x)^-1.

    • @pabloramirezramos5918
      @pabloramirezramos5918 5 ปีที่แล้ว

      Por un lado la sigmoide tiene la forma (1+e^-x)^-1 pero que forma tiene la a? Depende de los parametros del cubo pero que forma analitica tiene?

  • @icamobu
    @icamobu 8 ปีที่แล้ว

    Que buena explicación, muchas gracias por el grandioso aporte. Es posible me recomendaras alguna bibliografía por favor ?. Esto con el fin de profundizar en el tema. Muchas gracias.

    • @jcfausto2317
      @jcfausto2317 7 ปีที่แล้ว

      "Inteligencia Artificial con aplicaciones a la ingeniería" de Pedro Ponce Cruz podría servir para profundizar, por si te sirve.

    • @icamobu
      @icamobu 7 ปีที่แล้ว

      Muchisimas gracias, lo revisaré.

  • @edgarchavezgarcia2156
    @edgarchavezgarcia2156 5 ปีที่แล้ว

    En el minuto 30:09 creo que se confundió al decir que se deriva f con respecto de u y quizas quiso decir respecto a la suma y por regla de la cadena la suma con respecto a u. Ayudaría a futuros visores responder esta cuestión

  • @fisicalove
    @fisicalove 6 ปีที่แล้ว

    aun no entiendo de que sirve el umbral, si no estuviera alli igual funcionaria no?

  • @Sitzareta
    @Sitzareta 4 ปีที่แล้ว

    Estoy haciendo una pequeña investigación sobre redes neuronales para mi curso en la universidad, ¿sería posible que me recomendara algunos libros para profundizar el tema?

  • @pabloadrianbonet6023
    @pabloadrianbonet6023 8 ปีที่แล้ว

    Hola tengo una duda con respecto a la salida a de la capa 1:
    Veo que pusiste a(1)i = xi por lo que entiendo la entrada xi al pasar por la neurona i no cambia el valor, esto es así? no deberia influir la función de activación? o para la primer capa se toma el mismo valor xi = ai

    • @pacubidesg1
      @pacubidesg1 7 ปีที่แล้ว

      Exactamente, en el minuto 38.29 lo explica

  • @raullozano.4554
    @raullozano.4554 9 ปีที่แล้ว

    Que tal podrias enseñarnos como programar un perceptron multicapa para el reconocimiento de voz de hombre o mujer?

    • @raullozano.4554
      @raullozano.4554 9 ปีที่แล้ว

      Raúl Lozano. en matlab y sin toolbox...

  • @solounomas0
    @solounomas0 ปีที่แล้ว +1

    15:20

  • @minervavelez6678
    @minervavelez6678 6 ปีที่แล้ว

    bonito precioso, Javier como tu dices CHACHI

  • @itnas19
    @itnas19 6 ปีที่แล้ว

    Te refieres al varias veces al colegio, aunque hay tantas personas o más, que le han llevado desde pequeña al instituto, dónde suele haber más diversidad de seres humanos.
    Muchas gracias por tu paciente y relajante explicación.

  • @STEVENopticus
    @STEVENopticus 8 ปีที่แล้ว +1

    No entiendo el valor de la omega. Se supone que la omega es el camino entre los valores a(k-1) y a(k). La a(k-1) tiene un valor, pero la omega no.
    Entonces, que se hace con esa omega ?, y ¿Se suma? ¿Se multiplica? omega(k-1) con a(k-1)????
    PD: Si el valor de cada 'neurona' es la suma de todas las K anteriores, no seria el mismo valor para cada 'neurona'?

    • @jorgeduran6099
      @jorgeduran6099 7 ปีที่แล้ว

      Por lo que yo entiendo, aunque es el primero video de estos que miro ya que no es algo que realmente estoy estudiando xD pero esta interesante.
      Las omegas son factores que le dan ¨peso¨ a cada salida de cada neurona. esta omega dira ¨que tan importante¨ es la salida de las neuronas para determinar el resultado final y son las que el menciona que tu tienes que ajustar cuando estas ¨entrenando a la red¨ .
      y bueno como he dicho, son factores, es decir que multiplican a la salida de cada neurona, a las ¨A¨ , . Y también esta el factor U, que creo (al ver su posicion en las formulas) es el que determina que tanto Peso tienen todas las entradas a la neurona a la que pertenece U. Entre mas aumentes U, la salida de la neurona menos dependera de las entradas a la neurona.

  • @GodSavetheWest
    @GodSavetheWest 6 ปีที่แล้ว

    Q carrera estudiaste?

  • @josueacuna535
    @josueacuna535 3 ปีที่แล้ว

    "Regla de la cadena, que nos enseñaron cuando éramos pequeños" ja ja ja, reí como loco.

  • @brucewayne.2003
    @brucewayne.2003 6 ปีที่แล้ว

    una preguntita: que es "e" en la funcion del minuto 17:20?
    Cualquiera que lo sepa por favor ayudeme, entendi todo menos eso jeje

    • @brucewayne.2003
      @brucewayne.2003 6 ปีที่แล้ว

      Ya entendi, 2,71...

    • @hansktube
      @hansktube 6 ปีที่แล้ว

      es el numero constante euler comunente usado para representar funciones exponenciales.

  • @DTWSNE5WE5S
    @DTWSNE5WE5S 5 ปีที่แล้ว

    las cajas confunden mas, la idea es que si estas aprendiendo este tema, es obvio que ya sabes derivar, integrar, limites, etc.

  • @edomedo9137
    @edomedo9137 ปีที่แล้ว

    un canijote verdaderamente

  • @eduardopulido3269
    @eduardopulido3269 ปีที่แล้ว

    Javier, solamente te quiero dar las gracias. No hay nadie que explique tan bien como tu. Estaba buscando ha alguien que explicara los fundamentos básicos-matemáticos que hay bajo las redes neuronales y ya estaba a punto de tirar la toalla porque solo me salían temas de TensorFlow en Python o cosas por el estilo con las que no se llega a comprender lo que se está haciendo. Menos mal que todavía hay gente amable y con dos dedos de frente con ganas de hacer las cosas bien. Un saludo.

  • @DeaHHone
    @DeaHHone 6 ปีที่แล้ว +1

    Gracias tio eres la polla

  • @ondersoto
    @ondersoto 6 ปีที่แล้ว +1

    explicas bien pero yo mejoraría un poco la voz mas dinámica fluida y rápida

  • @yosvelreyeshernandez8438
    @yosvelreyeshernandez8438 3 ปีที่แล้ว

    Lo que ha dicho Tncho H, lo resume todo.

  •  5 ปีที่แล้ว

    Como que hace falta videos practicos, me puedes deicr misa pero hasta que se aplica se entiende

  • @josejavierampie8016
    @josejavierampie8016 4 ปีที่แล้ว

    NO SE QUE PASA SOLO HAY AUDIO.

  • @Jamer1Smith
    @Jamer1Smith 7 ปีที่แล้ว +7

    como se nota que no eres matemático...
    PD buen video, aunque reproduciéndolo a una velocidad x1.5

    • @yupib
      @yupib 6 ปีที่แล้ว +1

      ¿Insinúas que los matemáticos son los peores pedagogos?

  • @karimdealba652
    @karimdealba652 8 ปีที่แล้ว

    Por qué usar una pantalla negra???.... Los videos son buenos, pero esa pantalla negra con las letras apenas perceptibles, son una desgracia absoluta.

    • @suldreck
      @suldreck 8 ปีที่แล้ว +15

      +Karim De Alba daña menos la vista q una pantalla blanca

    • @onsmargelvikrivas405
      @onsmargelvikrivas405 7 ปีที่แล้ว +3

      suldreck metalium no es que la dañe menos, es que la cansa menos.

  • @Daniel-to5jd
    @Daniel-to5jd 6 ปีที่แล้ว

    excelente!!

  • @multiusomedia96
    @multiusomedia96 7 ปีที่แล้ว

    excelente!!!!