+ On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.\n""" + __precision
+ if self._parameters["ResiduFormula"] == "TaylorOnNorm":
+ __entete = u" i Alpha ||X|| ||F(X)|| ||F(X+dX)|| ||dX|| ||F(X+dX)-F(X)|| ||F(X+dX)-F(X)||/||dX|| R(Alpha) log( R )"
+ __msgdoc = u"""
+ On observe le residu issu du developpement de Taylor de la fonction F,
+ rapporte au parametre Alpha au carre :
+
+ || F(X+Alpha*dX) - F(X) - Alpha * GradientF_X(dX) ||
+ R(Alpha) = ----------------------------------------------------
+ Alpha**2
+
+ C'est un residu essentiellement similaire au critere classique de Taylor,
+ mais son comportement peut differer selon les proprietes numeriques des
+ calculs de ses differents termes.
+
+ Si le residu est constant jusqu'a un certain seuil et croissant ensuite,
+ cela signifie que le gradient est bien calcule jusqu'a cette precision
+ d'arret, et que F n'est pas lineaire.
+
+ Si le residu est systematiquement croissant en partant d'une valeur faible
+ par rapport a ||F(X)||, cela signifie que F est (quasi-)lineaire et que le
+ calcul du gradient est correct jusqu'au moment ou le residu est de l'ordre de
+ grandeur de ||F(X)||.
+
+ On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.\n""" + __precision