From: Jean-Philippe ARGAUD Date: Fri, 25 Apr 2014 12:32:04 +0000 (+0200) Subject: Correction of informative message strings X-Git-Tag: V7_4_0rc1~10 X-Git-Url: http://git.salome-platform.org/gitweb/?a=commitdiff_plain;h=76c205b55f31c557f2444f0b98c335a98e65db47;p=modules%2Fadao.git Correction of informative message strings --- diff --git a/src/daComposant/daAlgorithms/GradientTest.py b/src/daComposant/daAlgorithms/GradientTest.py index c3cb0c1..1de0ac8 100644 --- a/src/daComposant/daAlgorithms/GradientTest.py +++ b/src/daComposant/daAlgorithms/GradientTest.py @@ -127,7 +127,7 @@ class ElementaryAlgorithm(BasicObjects.Algorithm): if self._parameters["ResiduFormula"] == "Taylor": __entete = " i Alpha ||X|| ||F(X)|| ||F(X+dX)|| ||dX|| ||F(X+dX)-F(X)|| ||F(X+dX)-F(X)||/||dX|| R(Alpha) log( R ) " __msgdoc = """ - On observe le residu issu du développement de Taylor de la fonction F, + On observe le résidu issu du développement de Taylor de la fonction F, normalisée par la valeur au point nominal : || F(X+Alpha*dX) - F(X) - Alpha * GradientF_X(dX) || @@ -148,13 +148,13 @@ class ElementaryAlgorithm(BasicObjects.Algorithm): if self._parameters["ResiduFormula"] == "Norm": __entete = " i Alpha ||X|| ||F(X)|| ||F(X+dX)|| ||dX|| ||F(X+dX)-F(X)|| ||F(X+dX)-F(X)||/||dX|| R(Alpha) log( R ) " __msgdoc = """ - On observe le residu, qui est basé sur une approximation du gradient : + On observe le résidu, qui est basé sur une approximation du gradient : || F(X+Alpha*dX) - F(X) || R(Alpha) = --------------------------- Alpha - qui doit rester constant jusqu'à ce qu'on atteigne la précision du calcul. + qui doit rester constant jusqu'à ce que l'on atteigne la précision du calcul. On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul. """ diff --git a/src/daComposant/daAlgorithms/LinearityTest.py b/src/daComposant/daAlgorithms/LinearityTest.py index 0645c3b..b4f972b 100644 --- a/src/daComposant/daAlgorithms/LinearityTest.py +++ b/src/daComposant/daAlgorithms/LinearityTest.py @@ -122,9 +122,9 @@ class ElementaryAlgorithm(BasicObjects.Algorithm): # -------------------- __marge = 12*" " if self._parameters["ResiduFormula"] == "CenteredDL": - __entete = " i Alpha ||X|| ||F(X)|| | R(Alpha) log( R ) " + __entete = " i Alpha ||X|| ||F(X)|| | R(Alpha) log10( R ) " __msgdoc = """ - On observe le residu provenant de la différence centrée des valeurs de F + On observe le résidu provenant de la différence centrée des valeurs de F au point nominal et aux points perturbés, normalisée par la valeur au point nominal : @@ -140,15 +140,15 @@ class ElementaryAlgorithm(BasicObjects.Algorithm): de F n'est pas vérifiée. Si le résidu décroit et que la décroissance se fait en Alpha**2 selon Alpha, - cela signifie que le gradient est bien calculé jusqu'à la précision d'arrêt + cela signifie que le gradient est calculable jusqu'à la précision d'arrêt de la décroissance quadratique. On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul. """ if self._parameters["ResiduFormula"] == "Taylor": - __entete = " i Alpha ||X|| ||F(X)|| | R(Alpha) log( R ) " + __entete = " i Alpha ||X|| ||F(X)|| | R(Alpha) log10( R ) " __msgdoc = """ - On observe le residu issu du développement de Taylor de la fonction F, + On observe le résidu issu du développement de Taylor de la fonction F, normalisée par la valeur au point nominal : || F(X+Alpha*dX) - F(X) - Alpha * GradientF_X(dX) || @@ -164,14 +164,14 @@ class ElementaryAlgorithm(BasicObjects.Algorithm): Si le résidu décroit et que la décroissance se fait en Alpha**2 selon Alpha, cela signifie que le gradient est bien calculé jusqu'à la précision d'arrêt - de la décroissance. + de la décroissance quadratique. On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul. """ if self._parameters["ResiduFormula"] == "NominalTaylor": __entete = " i Alpha ||X|| ||F(X)|| | R(Alpha) |R-1| en % " __msgdoc = """ - On observe le residu obtenu à partir de deux approximations d'ordre 1 de F(X), + On observe le résidu obtenu à partir de deux approximations d'ordre 1 de F(X), normalisées par la valeur au point nominal : R(Alpha) = max( @@ -192,7 +192,7 @@ class ElementaryAlgorithm(BasicObjects.Algorithm): if self._parameters["ResiduFormula"] == "NominalTaylorRMS": __entete = " i Alpha ||X|| ||F(X)|| | R(Alpha) |R| en % " __msgdoc = """ - On observe le residu obtenu à partir de deux approximations d'ordre 1 de F(X), + On observe le résidu obtenu à partir de deux approximations d'ordre 1 de F(X), normalisées par la valeur au point nominal : R(Alpha) = max( @@ -259,7 +259,7 @@ class ElementaryAlgorithm(BasicObjects.Algorithm): ) # self.StoredVariables["CostFunctionJ"].store( Residu ) - msg = " %2i %5.0e %9.3e %9.3e | %9.3e %5i %s"%(i,amplitude,NormeX,NormeFX,Residu,100*abs(Residu-1),"%") + msg = " %2i %5.0e %9.3e %9.3e | %9.3e %5i %s"%(i,amplitude,NormeX,NormeFX,Residu,100.*abs(Residu-1.),"%") msgs += "\n" + __marge + msg # if self._parameters["ResiduFormula"] == "NominalTaylorRMS": @@ -273,7 +273,7 @@ class ElementaryAlgorithm(BasicObjects.Algorithm): ) # self.StoredVariables["CostFunctionJ"].store( Residu ) - msg = " %2i %5.0e %9.3e %9.3e | %9.3e %5i %s"%(i,amplitude,NormeX,NormeFX,Residu,100*Residu,"%") + msg = " %2i %5.0e %9.3e %9.3e | %9.3e %5i %s"%(i,amplitude,NormeX,NormeFX,Residu,100.*Residu,"%") msgs += "\n" + __marge + msg # msgs += "\n" + __marge + "-"*__nbtirets