Lo que has realizado es sólo la parte computacional. Muy bien presentada matricialmente como caso particular del Modelo Lineal General Multivariado. Pero el cálculo de lus parámetro de ka ecuación de la recta no es suficiente para completar el análisis de regresión. Es imprescindible calcular, al menos, 1.- Coeficiente de Determinación, R2 (R cuadrado) para cuantificar la calidad del ajuste de la ecuación de regresión. 2.- Significatividad de los coeficientes calculados (los parámetros de la ecuación - theta 0 y theta 1 -. O sea si son significativamente distintos de cero. 3.- Tabla ANOVA Además la graficación de los residuos. En definitiva, el análisis va mucho más que graficar y calcular los parámetros.
@pyninja10 ай бұрын
Hola Néstor, muchas gracias por tu aportación. En efecto, el análisis paramétrico no esta completo. Enfoqué más el video hacia la parte computacional porque el objetivo del video era aplicar el modelo de regresión lineal en Python.
@nestormartinez325610 ай бұрын
@@pyninja 👍
@VictorVazquez-kf5fx3 ай бұрын
ya van varios videos que me aparecen tuyos sobre machine learninig, en verdad sirven bastante, muchas gracias
@luiscarlospallaresascanio237410 ай бұрын
Me suscribo 👌
@qwertizyx7 ай бұрын
Buen contenido.
@sebastianmt028 ай бұрын
No es una recta, es un polinomio de grado 2 minimo, no es la solucion mas exacta por otro lado hay que hacer un bucle para la funcion error y de esa manera ajustar mejor los parametros
@pyninja8 ай бұрын
Hola! A cuál polinomio de grado 2 te estás refiriendo? En el video, muestro un modelo de regresión lineal con dos parámetros: la intersección (theta 0) y la pendiente (theta 1). Sin embargo, un modelo de regresión polinomial es algo distinto, ya que los parámetros deben elevarse a potencias mayores. En cuanto al método que mencionas, se le conoce como gradiente descendente. En este video, enseño el método más básico (Ecuación Normal) para entender el cálculo vectorial necesario para obtener los parámetros óptimos. Si quieres saber cómo funciona el gradiente descendente con este mismo modelo, puedes checar mi último video. Saludos!
@sebastianmt028 ай бұрын
@@pyninja Perfecto, me mal interpretaste, fue mi error, no te estoy corrigiendo, esta bien lo que explicas solo que en este caso me parece mejor la regresion polinomial, yo trabaje con un ejemplo similar, en este caso son pocos datos pero con muchos datos y con una grafica de dispersión si los valores tienden a ser curvos la RL no es exacta y en ese caso se usa Polynomial, hay q seleccionar bien el grado del polinomio (en este caso es 2 por la naturaleza de los datos) y utilizar técnicas como la validación cruzada para evitar el sobreajuste o subajuste del modelo. Con respecto al gradiente o derivadas parciales para el ajuste de la funcion error lo conozco perfectamente (Back propagation), veo el video y si puedo aportar algo te lo pongo en los comentarios, saludos
@pyninja8 ай бұрын
@@sebastianmt02 Muchas gracias por la aclaración y por la aportación, es correcto, por la naturaleza de los datos, un modelo polinomial sería una mejor opción y el usar cross validation nos daría predicciones mucho más precisas. Espero tu retroalimentación en el otro video, te mando un saludo!
@devmart8 ай бұрын
👍👍
@pptmtz8 ай бұрын
en otros casos me ha ayudado mucho tu forma de presentar, pero en esta ocasión no, como que te saltas pasos y me confundió más. De cualquier forma te agradezco el video y sigo suscrito, saludos
@pyninja8 ай бұрын
gracias por la retro, lo tomaré en cuenta para que en futuros videos no tengas esas dificultades, saludos!