ความคิดเห็น •

  • @luiscarlospallaresascanio2374
    @luiscarlospallaresascanio2374 6 หลายเดือนก่อน +1

    Me suscribo 👌

  • @qwertizyx
    @qwertizyx 3 หลายเดือนก่อน

    Buen contenido.

  • @nestormartinez3256
    @nestormartinez3256 6 หลายเดือนก่อน +6

    Lo que has realizado es sólo la parte computacional. Muy bien presentada matricialmente como caso particular del Modelo Lineal General Multivariado. Pero el cálculo de lus parámetro de ka ecuación de la recta no es suficiente para completar el análisis de regresión. Es imprescindible calcular, al menos,
    1.- Coeficiente de Determinación, R2 (R cuadrado) para cuantificar la calidad del ajuste de la ecuación de regresión.
    2.- Significatividad de los coeficientes calculados (los parámetros de la ecuación - theta 0 y theta 1 -. O sea si son significativamente distintos de cero.
    3.- Tabla ANOVA
    Además la graficación de los residuos.
    En definitiva, el análisis va mucho más que graficar y calcular los parámetros.

    • @pyninja
      @pyninja 6 หลายเดือนก่อน +1

      Hola Néstor, muchas gracias por tu aportación. En efecto, el análisis paramétrico no esta completo. Enfoqué más el video hacia la parte computacional porque el objetivo del video era aplicar el modelo de regresión lineal en Python.

    • @nestormartinez3256
      @nestormartinez3256 6 หลายเดือนก่อน

      @@pyninja 👍

  • @devmart
    @devmart 4 หลายเดือนก่อน +1

    👍👍

  • @sebastianmt02
    @sebastianmt02 4 หลายเดือนก่อน +3

    No es una recta, es un polinomio de grado 2 minimo, no es la solucion mas exacta por otro lado hay que hacer un bucle para la funcion error y de esa manera ajustar mejor los parametros

    • @pyninja
      @pyninja 4 หลายเดือนก่อน +1

      Hola! A cuál polinomio de grado 2 te estás refiriendo? En el video, muestro un modelo de regresión lineal con dos parámetros: la intersección (theta 0) y la pendiente (theta 1). Sin embargo, un modelo de regresión polinomial es algo distinto, ya que los parámetros deben elevarse a potencias mayores.
      En cuanto al método que mencionas, se le conoce como gradiente descendente. En este video, enseño el método más básico (Ecuación Normal) para entender el cálculo vectorial necesario para obtener los parámetros óptimos. Si quieres saber cómo funciona el gradiente descendente con este mismo modelo, puedes checar mi último video. Saludos!

    • @sebastianmt02
      @sebastianmt02 4 หลายเดือนก่อน +1

      @@pyninja Perfecto, me mal interpretaste, fue mi error, no te estoy corrigiendo, esta bien lo que explicas solo que en este caso me parece mejor la regresion polinomial, yo trabaje con un ejemplo similar, en este caso son pocos datos pero con muchos datos y con una grafica de dispersión si los valores tienden a ser curvos la RL no es exacta y en ese caso se usa Polynomial, hay q seleccionar bien el grado del polinomio (en este caso es 2 por la naturaleza de los datos) y utilizar técnicas como la validación cruzada para evitar el sobreajuste o subajuste del modelo. Con respecto al gradiente o derivadas parciales para el ajuste de la funcion error lo conozco perfectamente (Back propagation), veo el video y si puedo aportar algo te lo pongo en los comentarios, saludos

    • @pyninja
      @pyninja 4 หลายเดือนก่อน

      @@sebastianmt02 Muchas gracias por la aclaración y por la aportación, es correcto, por la naturaleza de los datos, un modelo polinomial sería una mejor opción y el usar cross validation nos daría predicciones mucho más precisas. Espero tu retroalimentación en el otro video, te mando un saludo!

  • @pptmtz
    @pptmtz 4 หลายเดือนก่อน +2

    en otros casos me ha ayudado mucho tu forma de presentar, pero en esta ocasión no, como que te saltas pasos y me confundió más. De cualquier forma te agradezco el video y sigo suscrito, saludos

    • @pyninja
      @pyninja 4 หลายเดือนก่อน

      gracias por la retro, lo tomaré en cuenta para que en futuros videos no tengas esas dificultades, saludos!