1

Regresión Lineal

MACHINE LEARNING

Machine Learning

1.3 - Mínimos cuadrados

El modelo de Regresión Lineal nos ofrece una predicción que podemos comparar con los valores reales. Evidentemente nos interesan una predicción que sea lo más cercana posibles a los datos reales. En términos matemáticos, debemos buscar aquellos valores que minimicen la diferencia entre la variable independiente y y la predicción del modelo \hat{y}.

Los mínimos cuadrados es una técnica que permite cuantificar este error o diferencia entre ambos valores. Esta diferencia entre el pronóstico y el valor real se eleva al cuadrado. La razón es que cualquier número elevado al cuadrado es positivo y queremos operar con diferencias positivas sin importar si ese error es por exceso o por defecto. Otra razón es que al elevar al cuadrado las diferencias mayores son más penalizadas.

(y  –  \hat{y})^{2}

La diferencia se calcula para cada uno de las instancias con los que contamos para luego sumarlas todas. Por último es también usual dividir la suma al completo entre el número n de instancias para obtener el Error Cuadrático Medio (en inglés MSE: Mean Squared Error):

\frac{1}{n}\displaystyle\sum_{i=1}^{n}(y_{i}  –  \hat{y_{i}})^{2}

Esta cantidad es la medida del error que debemos reducir al mínimo para acercar las predicciones de nuestro modelo a los datos reales. 

θ _{0} 110
θ _{1} 1.1

\hat{y}:

\frac{1}{24}\displaystyle\sum_{i=1}^{24}(y_{i} - \hat{y_{i}})^{2} =

Al modificar los parámetros del modelo -la pendiente y el punto de corte de la recta- podemos alejarnos o acercarnos a los valores reales. Las líneas punteadas representan las diferencias y_{i}  –  \hat{y_{i}} para cada una de las veinticuatro instancias i. Modificar los parámetros para acortar estas diferencias nos devuelve un error menor. 

Los elementos interactivos solo se encuentran disponibles en versión escritorio o tablet