En el mundo de la validación de métodos analíticos, existen dos escuelas de pensamiento sobre cómo tratar la incertidumbre de la curva de calibración. La guía EURACHEM/CITAC propone una simplificación peligrosa: asumir que la linealidad es una propiedad binaria (es lineal o no lo es) y que, si el coeficiente de correlación $r$ es alto, se puede ignorar la estructura de la varianza. Esta aproximación lleva a menudo a subestimar la incertidumbre en los extremos del rango.
Por otro lado, la norma ISO 8466-1 (y la DIN 32645) adopta un enfoque estocástico riguroso. No se pregunta si la curva "parece" recta, sino cuál es la probabilidad de que la desviación de la linealidad sea debida al azar. Este enfoque penaliza la incertidumbre de predicción mediante la hipérbola de confianza, reconociendo que la capacidad predictiva del modelo se degrada a medida que nos alejamos del centroide de los datos.
Es común encontrar laboratorios que validan su linealidad reportando un $r > 0.995$. Sin embargo, Anscombe (1973) demostró magistralmente que cuatro conjuntos de datos con comportamientos radicalmente diferentes (uno lineal, uno cuadrático, uno con un outlier y uno con un punto de palanca) pueden tener exactamente el mismo coeficiente de correlación y la misma ecuación de regresión. Confiar únicamente en $r$ es, en términos técnicos, una negligencia estadística. La prueba definitiva de la linealidad no es $r$, sino el Análisis de la Varianza de la Falta de Ajuste (ANOVA Lack-of-Fit) y el análisis gráfico de los residuos estandarizados.