El modelo de Regresión Lineal nos ofrece una predicción que podemos comparar con los valores reales. Evidentemente nos interesan una predicción que sea lo más cercana posibles a los datos reales. En términos matemáticos, debemos buscar aquellos valores que minimicen la diferencia entre la variable independiente y y la predicción del modelo \hat{y}.
Los mínimos cuadrados es una técnica que permite cuantificar este error o diferencia entre ambos valores. Esta diferencia entre el pronóstico y el valor real se eleva al cuadrado. La razón es que cualquier número elevado al cuadrado es positivo y queremos operar con diferencias positivas sin importar si ese error es por exceso o por defecto. Otra razón es que al elevar al cuadrado las diferencias mayores son más penalizadas.
La diferencia se calcula para cada uno de las instancias con los que contamos para luego sumarlas todas. Por último es también usual dividir la suma al completo entre el número n de instancias para obtener el Error Cuadrático Medio (en inglés MSE: Mean Squared Error):
Esta cantidad es la medida del error que debemos reducir al mínimo para acercar las predicciones de nuestro modelo a los datos reales.
\hat{y}:
\frac{1}{24}\displaystyle\sum_{i=1}^{24}(y_{i} - \hat{y_{i}})^{2} =
Al modificar los parámetros del modelo -la pendiente y el punto de corte de la recta- podemos alejarnos o acercarnos a los valores reales. Las líneas punteadas representan las diferencias y_{i} – \hat{y_{i}} para cada una de las veinticuatro instancias i. Modificar los parámetros para acortar estas diferencias nos devuelve un error menor.
Los elementos interactivos solo se encuentran disponibles en versión escritorio o tablet