En el contexto de la metrología de alta exactitud, la calibración no debe entenderse meramente como la comparación de valores, sino como un ejercicio de inferencia estadística destinado a construir una función de transferencia robusta, $y = f(x) + \varepsilon$. Este modelo matemático busca relacionar de manera unívoca la respuesta del instrumento ($y$) con el valor convencional del patrón ($x$), en presencia inevitable de perturbaciones estocásticas. Históricamente, el método predominante para estimar los parámetros desconocidos de esta función ($\beta$) ha sido el de Mínimos Cuadrados Ordinarios (OLS).
Sin embargo, la aplicación de OLS suele trivializarse en la práctica rutinaria de los laboratorios mediante el uso ciego de software comercial, ocultando la compleja maquinaria algebraica que sustenta su validez. Como establecen Draper y Smith (1998) en su tratado fundamental sobre análisis de regresión, el objetivo de este método no es geométrico —"que la línea pase por los puntos"—, sino estadístico: minimizar la Suma de los Cuadrados del Error ($SSE$) bajo condiciones muy específicas de la estructura del error. Cualquier desviación de este principio convierte a la calibración en un artefacto numérico sin valor predictivo real.
Para comprender la física detrás del ajuste, es imperativo abandonar la notación escalar y adoptar la formulación matricial, que es el lenguaje nativo de la estadística multivariante. Consideremos el modelo lineal generalizado:
$$Y = X\beta + \varepsilon$$
Donde $Y$ es el vector de respuestas observadas $(n \times 1)$, $\beta$ es el vector de parámetros desconocidos $(p \times 1)$, $\varepsilon$ es el vector de errores aleatorios, y $X$ es la Matriz de Diseño $(n \times p)$. El término "Matriz de Diseño" no es casual; Montgomery (2012) enfatiza que esta matriz encapsula la estrategia experimental del metrólogo. La primera columna de $X$ suele ser un vector de unos (asociado al intercepto $\beta_0$), mientras que las columnas subsiguientes contienen los niveles de concentración o magnitud física aplicados durante la calibración.
El estimador de mínimos cuadrados, $\hat{\beta}$, se obtiene minimizando la función de pérdida cuadrática $S(\beta) = \varepsilon^T \varepsilon = (Y - X\beta)^T (Y - X\beta)$. Al derivar esta expresión respecto al vector $\beta$ e igualar a cero, obtenemos el sistema de Ecuaciones Normales:
$$(X^T X)\hat{\beta} = X^T Y$$
Esta igualdad es la piedra angular de todo algoritmo de calibración. De ella se desprende la solución analítica para los coeficientes:
$$\hat{\beta} = (X^T X)^{-1} X^T Y$$
La matriz $(X^T X)^{-1}$ no es un simple operador aritmético; representa, salvo un factor de escala $\sigma^2$, la matriz de varianza-covarianza de los estimadores. Su existencia matemática depende estrictamente de que la matriz producto $X^T X$ sea no singular, es decir, que su determinante sea distinto de cero ($|X^T X| \neq 0$).
Aquí yace una implicación crítica para el diseño experimental en metrología: la invertibilidad de la matriz depende de que las columnas de $X$ sean linealmente independientes. Si un metrólogo diseña un experimento donde las concentraciones son combinaciones lineales unas de otras (colinealidad perfecta), o si intenta ajustar un modelo con más parámetros que puntos de datos ($n < p$), el sistema colapsa. En términos físicos, la información contenida en los datos es insuficiente para resolver el modelo propuesto, llevando a una indeterminación de la incertidumbre.