Los mínimos cuadrados es una de las muchas técnicas utilizadas para cuantificar el error de nuestras predicciones. Todas ella se agrupan bajo lo que conocemos como función de pérdida (Loss function, o también función de error o función de coste, denotada como L(y,\hat{y})). En el caso de los mínimos cuadrados vistos en la página previa la función de pérdida sería L(y,\hat{y}) = \frac{1}{n}\displaystyle\sum_{i=1}^{n}(y_{i} – \hat{y_{i}})^{2}. A medida que se desarrolle este taller veremos otras funciones.
Al medir lo equivocado que está nuestro modelo, la función de pérdida nos guía en el camino hacia su optimización. Pero esto es Machine Learning, y nos interesa que ese camino sea trazado de forma automática. Es necesario un técnica de optimización que será el tema de la próxima sección.
En la gráfica de la derecha podéis ver representada la función de error como un valor dependiente de los dos parámetros utilizados en el modelo de regresión lineal. Así es fácil visualizar lo que podíamos intuir en la página previa: los valores más bajos de la función de pérdida se encuentran en la zona más oscura, cuando los parámetros tienen un valor entre 110 y 120 para θ_{1} y entre 0.8 y 0.6 para θ_{2}. Son esos valores los que nos interesa para alcanzar un modelo preciso.
L(y_{i}, \hat{y_{i}}) =