El Algoritmo Estándar (Caso 1) se basa en una suposición fuerte: que la precisión del instrumento es constante en todo el rango de medición (homocedasticidad). Sin embargo, en muchas técnicas analíticas (como espectroscopía de absorción atómica o cromatografía), la varianza de la señal tiende a aumentar con la concentración. Esto se conoce como Heterocedasticidad.
Cuando esto ocurre, el ajuste por Mínimos Cuadrados Ordinarios (OLS) otorga demasiado peso a los puntos de alta concentración (que tienen mayor varianza), distorsionando la línea de regresión y afectando gravemente la precisión en la zona de bajas concentraciones, que es crítica para los Límites de Detección.
Cuando la prueba de Bartlett o la prueba F confirman que las varianzas no son homogéneas, se debe utilizar el ajuste por Mínimos Cuadrados Ponderados (WLS). La incertidumbre de interpolación para este caso, según ISO 8466-1, se modifica para reflejar que la precisión depende de la concentración ($x$):
Donde $w_i$ es el factor de peso para cada punto, calculado como el inverso de la varianza relativa ($w_i = 1 / s_i^2$). Esta ecuación "cierra" la banda de confianza en la zona de baja concentración (donde la varianza es pequeña), permitiendo estimar Límites de Detección (LOD) y Cuantificación (LOQ) mucho más realistas y bajos que con el modelo OLS tradicional.