+ __marge = 12*u" "
+ __precision = u"""
+ Remarque : les nombres inferieurs a %.0e (environ) representent un zero
+ a la precision machine.\n"""%mpr
+ if self._parameters["ResiduFormula"] == "Taylor":
+ __entete = u" i Alpha ||X|| ||F(X)|| ||F(X+dX)|| ||dX|| ||F(X+dX)-F(X)|| ||F(X+dX)-F(X)||/||dX|| R(Alpha) log( R )"
+ __msgdoc = u"""
+ On observe le residu issu du developpement de Taylor de la fonction F,
+ normalise par la valeur au point nominal :
+
+ || F(X+Alpha*dX) - F(X) - Alpha * GradientF_X(dX) ||
+ R(Alpha) = ----------------------------------------------------
+ || F(X) ||
+
+ Si le residu decroit et que la decroissance se fait en Alpha**2 selon Alpha,
+ cela signifie que le gradient est bien calcule jusqu'a la precision d'arret
+ de la decroissance quadratique, et que F n'est pas lineaire.
+
+ Si le residu decroit et que la decroissance se fait en Alpha selon Alpha,
+ jusqu'a un certain seuil apres lequel le residu est faible et constant, cela
+ signifie que F est lineaire et que le residu decroit a partir de l'erreur
+ faite dans le calcul du terme GradientF_X.
+
+ On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.\n""" + __precision
+ if self._parameters["ResiduFormula"] == "TaylorOnNorm":
+ __entete = u" i Alpha ||X|| ||F(X)|| ||F(X+dX)|| ||dX|| ||F(X+dX)-F(X)|| ||F(X+dX)-F(X)||/||dX|| R(Alpha) log( R )"
+ __msgdoc = u"""
+ On observe le residu issu du developpement de Taylor de la fonction F,
+ rapporte au parametre Alpha au carre :
+
+ || F(X+Alpha*dX) - F(X) - Alpha * GradientF_X(dX) ||
+ R(Alpha) = ----------------------------------------------------
+ Alpha**2