esta interesante el video, estaría bueno si pudieras hacer los mismo pero en una grafica 3d, ya que para el que no enciende nada del tema parece muy complejo
@@pyninja Sí, pero está mal dicho "más optimo", solo hay un optimo y si se encuentra algo mejor, el otro deja de ser optimo. El óptimo para toda la función de costo se llama óptimo global, los pequeños lugares convexos o cóncavos donde tiende a estancarse el algoritmo se les llama óptimos locales.
Recientemente vi el EMC y regresión lineal en estadística, desconocía sus usos con el descenso del gradiente (lo vi en otra materia), que gran video, me encanto! Me he visto un par ya y creo que se han vuelto de mis favoritos en estos temas. Que carreras seguiste para tener estos conocimientos? Es suficiente con computación?
hola! estudié una carrera de ingeniería, ahí obtuve las bases de álgebra, cálculo, estadística, etc. y yo por mi cuenta he realizado diversos cursos de Machine Learning y en especial un libro: Hands-On Machine Learning, te lo recomiendo
Hola! Te recomendaría empezar con el curso de introducción a Machine Learning de Andrew Ng en Coursera, es completamente gratis: www.coursera.org/learn/machine-learning?specialization=machine-learning-introduction y después seguir con una de las especializaciones en Machine Learning de la misma plataforma, te comparto una: www.coursera.org/specializations/machine-learning-introduction?B2C_LATAM_machine-learning-introduction_deeplearning-ai_FTCOF_specializations_countrygroup-1&campaignid=20849949060&adgroupid=162342411808&device=m&keyword=ai%20ml%20course&matchtype=b&network=g&devicemodel=&adposition=&creativeid=684376971992&hide_mobile_promo&gad_source=1&gclid=CjwKCAiA0bWvBhBjEiwAtEsoW1FonibdCnHfe2oUE0mOwZYDbP5viX-kCWkAxWsz81P-jAgJA-dqSxoC38IQAvD_BwE
Qué diferencia existe en minimizar el ECM con este algoritmo y hacerlo, por ejemplo, en una regresión lineal, minimizarlo aplicando mínimos cuadrados. Entiendo que el objetivo de minimizar el EMC es el musmo. Y Nikimos Cyadrados permite estimar ambos parámetros - pendiente y ordenada al origen. En el ejemplo que mostraste, para un solo regresor, has dejado constante la pendiente y pruebas con muchas rectas paralelas. O sea que no dices nada del segundo parámetro que caracteriza a las rectas. Y lo eliges al azar o arbitrariamente. Diría que esa estrategia deja un grado de libertad muy importante y no puedes asegurar que la ecuación sea la óptima. Sólo lo es respecto de un solo parámetro, la pendiente. Es realmente mejor que estimar ambos parámetros aplicando, por ejemplo, mínimos cuadrados o, incluso bi-etápicos o máxima verosimilitud? Muchas gracias desde Argentina.
Hola Néstor, en el ejemplo que mostré, solo estimé la ordenada al origen (o como lo menciono en el video, la intersección). Esto fue hecho para simplificar el ejemplo y poder observar el cambio en una sola variable. Si hubiera aplicado el algoritmo a ambas variables (ordenada al origen y pendiente), habría necesitado utilizar un vector de parámetros para obtener un vector gradiente, lo que habría sido un poco más confuso, sin embargo es correcto lo que dices, para optimizar por completo este modelo, sería necesario optimizar ambas variables simultáneamente. En cuanto a la elección entre mínimos cuadrados y gradiente descendente, el gradiente descendente tiene mayor flexibilidad y es capaz de abordar una más amplia gama de problemas de optimización, como el entrenamiento de redes neuronales. Por otro lado, mínimos cuadrados suele ser preferible para soluciones analíticas más directas.
te lo explico a detalle, debido a que hay un - (menos) fuera del paréntesis, tenemos que aplicarlo al momento de derivar b, es por ello que nos queda: -b y la derivada queda -1 afuera del paréntesis
en el intento de ser mas didáctico se pierde rigurosidad, reconozco la buena intensión del video, pero tengo que señalar algunos fallos, sobre todo en el lenguaje matemático ,en tus ecuaciones no escribes los índices ,esto es un grave error ya que son necesarios para poder expandir la sumatoria, luego cuando ya tienes expandida la sumatoria aun mantienes el símbolo de esta cuando ya cumplió su función y lo que se lee es ¿una sumatoria sobre numeros? en fin, esencial mantener la rigurosidad matemática y la claridad en el lenguaje. Esto implica incluir índices en las ecuaciones para facilitar la comprensión y eliminar símbolos redundantes una vez que se han realizado las operaciones pertinentes. La ambigüedad en el lenguaje matemático puede dificultar la comprensión y generar confusiones en el público objetivo, por lo tanto, es crucial ser preciso y claro en la presentación de conceptos matemáticos, salu2.
La mejor explicacion de todas, un crack, graciaasss
me gusto mucho la explicación
esta interesante el video, estaría bueno si pudieras hacer los mismo pero en una grafica 3d, ya que para el que no enciende nada del tema parece muy complejo
Muy buena explicación. Muchas gracias.
9:12 Más óptimo? eso no existe. Te refieres al optimo global?
si, el gradiente descendente encontró que el el valor óptimo para la intersección - es decir donde genera menos error - es 2.33
@@pyninja Sí, pero está mal dicho "más optimo", solo hay un optimo y si se encuentra algo mejor, el otro deja de ser optimo. El óptimo para toda la función de costo se llama óptimo global, los pequeños lugares convexos o cóncavos donde tiende a estancarse el algoritmo se les llama óptimos locales.
Increible este canal, explicas muy bien!
muchas gracias!!
Felicidades x tu forma de enseñar
Recientemente vi el EMC y regresión lineal en estadística, desconocía sus usos con el descenso del gradiente (lo vi en otra materia), que gran video, me encanto! Me he visto un par ya y creo que se han vuelto de mis favoritos en estos temas. Que carreras seguiste para tener estos conocimientos? Es suficiente con computación?
hola! estudié una carrera de ingeniería, ahí obtuve las bases de álgebra, cálculo, estadística, etc. y yo por mi cuenta he realizado diversos cursos de Machine Learning y en especial un libro: Hands-On Machine Learning, te lo recomiendo
Gracias. excelente!
💯💯 Gracias
No entiendo el segundo for. for x in X. Donde se declaro esa x mayuscula?, el programa bota error al correrlo
ese "for" loop es para graficar el cambio en la línea de regresión. La "X" mayúscula la declaramos en las primeras líneas, justo en el min 7:24.
Hola, saludos desde Colombia. Quisiera saber que cursos online o libros recomiendas para entrar al mundo de la IA.
Hola! Te recomendaría empezar con el curso de introducción a Machine Learning de Andrew Ng en Coursera, es completamente gratis: www.coursera.org/learn/machine-learning?specialization=machine-learning-introduction y después seguir con una de las especializaciones en Machine Learning de la misma plataforma, te comparto una: www.coursera.org/specializations/machine-learning-introduction?B2C_LATAM_machine-learning-introduction_deeplearning-ai_FTCOF_specializations_countrygroup-1&campaignid=20849949060&adgroupid=162342411808&device=m&keyword=ai%20ml%20course&matchtype=b&network=g&devicemodel=&adposition=&creativeid=684376971992&hide_mobile_promo&gad_source=1&gclid=CjwKCAiA0bWvBhBjEiwAtEsoW1FonibdCnHfe2oUE0mOwZYDbP5viX-kCWkAxWsz81P-jAgJA-dqSxoC38IQAvD_BwE
¿SI LE BUSCO LA ECUACIÓN DE LA LÍNEA DE TENDENCIA EN EXCEL, ME DA OTRA ECUACIÓN Y UN R2 DE 0.22, ¿ES QUE ESTÁ EXCEL?
Qué diferencia existe en minimizar el ECM con este algoritmo y hacerlo, por ejemplo, en una regresión lineal, minimizarlo aplicando mínimos cuadrados. Entiendo que el objetivo de minimizar el EMC es el musmo. Y Nikimos Cyadrados permite estimar ambos parámetros - pendiente y ordenada al origen. En el ejemplo que mostraste, para un solo regresor, has dejado constante la pendiente y pruebas con muchas rectas paralelas. O sea que no dices nada del segundo parámetro que caracteriza a las rectas. Y lo eliges al azar o arbitrariamente. Diría que esa estrategia deja un grado de libertad muy importante y no puedes asegurar que la ecuación sea la óptima. Sólo lo es respecto de un solo parámetro, la pendiente.
Es realmente mejor que estimar ambos parámetros aplicando, por ejemplo, mínimos cuadrados o, incluso bi-etápicos o máxima verosimilitud?
Muchas gracias desde Argentina.
Hola Néstor, en el ejemplo que mostré, solo estimé la ordenada al origen (o como lo menciono en el video, la intersección). Esto fue hecho para simplificar el ejemplo y poder observar el cambio en una sola variable. Si hubiera aplicado el algoritmo a ambas variables (ordenada al origen y pendiente), habría necesitado utilizar un vector de parámetros para obtener un vector gradiente, lo que habría sido un poco más confuso, sin embargo es correcto lo que dices, para optimizar por completo este modelo, sería necesario optimizar ambas variables simultáneamente.
En cuanto a la elección entre mínimos cuadrados y gradiente descendente, el gradiente descendente tiene mayor flexibilidad y es capaz de abordar una más amplia gama de problemas de optimización, como el entrenamiento de redes neuronales. Por otro lado, mínimos cuadrados suele ser preferible para soluciones analíticas más directas.
@@pyninja Muy completa tu respuesta.
Muchas gracias!
podriamos buscar la mejor pendiente al mismo tiempo ?
si! habría que hacer los mismos cálculos pero con vectores, ya que estaríamos optimizando dos parámetros (intersección y pendiente) al mismo tiempo
4:53 no me queda claro por que multiplicaste por -1 ahi
ho ya, creo que es por lo de que vas en direccion opuesta al gradiente
te lo explico a detalle, debido a que hay un - (menos) fuera del paréntesis, tenemos que aplicarlo al momento de derivar b, es por ello que nos queda: -b y la derivada queda -1 afuera del paréntesis
Like
¿TIENES LOS CÓDIGOS QUE INTRODUJISTES ?, ES QUE NO SE DISTINGUEN EN EL FONDO NEGRO.
en el intento de ser mas didáctico se pierde rigurosidad, reconozco la buena intensión del video, pero tengo que señalar algunos fallos, sobre todo en el lenguaje matemático ,en tus ecuaciones no escribes los índices ,esto es un grave error ya que son necesarios para poder expandir la sumatoria, luego cuando ya tienes expandida la sumatoria aun mantienes el símbolo de esta cuando ya cumplió su función y lo que se lee es ¿una sumatoria sobre numeros? en fin, esencial mantener la rigurosidad matemática y la claridad en el lenguaje. Esto implica incluir índices en las ecuaciones para facilitar la comprensión y eliminar símbolos redundantes una vez que se han realizado las operaciones pertinentes. La ambigüedad en el lenguaje matemático puede dificultar la comprensión y generar confusiones en el público objetivo, por lo tanto, es crucial ser preciso y claro en la presentación de conceptos matemáticos, salu2.
muchas gracias por la retroalimentación, lo tendré en cuanto para los siguientes videos 👌🏽