Très souvent, un ou plusieurs points expérimentaux présentent un écart "considérable" par rapport à la courbe ajustée. L'origine usuelle de ce phénomène correspond à une mauvaise mesure par inattention de l'expérimentateur (lecture erronée par exemple) .
Traditionnellement, même dans le cas où l'on ne peut répéter la mesure, on élimine de tels points car ils faussent les conclusions. Cependant, cette façon de faire est discutable tant que l'on n'a pas précisé ce que l'on entend par un écart inacceptable.
Pour obtenir une justification quantitative, il suffit, dans un premier temps, de considérer la contribution de chaque point à la somme définissant le critère d'optimisation utilisé (Somme Quadratique, sur une seule variable ou CRITERE des Ellipses ) .
Si une de ces contributions est largement supérieure aux autres, le point correspondant est douteux et il peut être éliminé ou, de préférence, la mesure doit être recommencée.
Plus rigoureusement, il faut évaluer la probabilité suivant l'importance de l'écart et, donc, comparer cet écart à l'écart-type de la mesure.
Dans le cas général, on retrouve la discussion sur les "rectangles" d'incertitude: la courbe représentative doit passer au "voisinage" des Ellipses de dispersion unitaire.
Plus précisément, il s'agit de situer, sur la courbe, la position
des points les plus probables
et d'évaluer l'extension de l'ellipse de dispersion correspondante
en terme d'écart-type:
si ses demi-axes de longueurs
et correspondent
à ,
le point sera à rejeter (règle
des trois sigmas) .
Il est donc commode de tracer directement sur un même graphe les écarts relatifs de chaque point le plus probable par rapport au point expérimental correspondant. On obtiendra donc n points de coordonnées réduites et dont il faudra repérer la position par rapport aux ellipses d'ordre un, deux, trois...
Remarque: le point n° 7 n'est pas forcément aberrant ...
Dans ce cas, il s'agit en fait d'une modélisation mal menée
(cf. exemple de la varistance) !