Salome HOME
projects
/
modules
/
adao.git
/ blobdiff
commit
grep
author
committer
pickaxe
?
search:
re
summary
|
shortlog
|
log
|
commit
|
commitdiff
|
tree
raw
|
inline
| side by side
Adding user time measure
[modules/adao.git]
/
src
/
daComposant
/
daAlgorithms
/
GradientTest.py
diff --git
a/src/daComposant/daAlgorithms/GradientTest.py
b/src/daComposant/daAlgorithms/GradientTest.py
index 842604bc1ae0fe81332772ffde518870316f0fa3..81814c3f43b5ba42debfd64c763e6ac6156b7352 100644
(file)
--- a/
src/daComposant/daAlgorithms/GradientTest.py
+++ b/
src/daComposant/daAlgorithms/GradientTest.py
@@
-1,6
+1,6
@@
-#
-*-coding:iso-8859-1
-*-
+#
-*- coding: utf-8
-*-
#
#
-# Copyright (C) 2008-20
17
EDF R&D
+# Copyright (C) 2008-20
20
EDF R&D
#
# This library is free software; you can redistribute it and/or
# modify it under the terms of the GNU Lesser General Public
#
# This library is free software; you can redistribute it and/or
# modify it under the terms of the GNU Lesser General Public
@@
-20,10
+20,12
@@
#
# Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
#
# Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
-import logging
+import
sys,
logging
from daCore import BasicObjects, PlatformInfo
import numpy, math
mpr = PlatformInfo.PlatformInfo().MachinePrecision()
from daCore import BasicObjects, PlatformInfo
import numpy, math
mpr = PlatformInfo.PlatformInfo().MachinePrecision()
+if sys.version_info.major > 2:
+ unicode = str
# ==============================================================================
class ElementaryAlgorithm(BasicObjects.Algorithm):
# ==============================================================================
class ElementaryAlgorithm(BasicObjects.Algorithm):
@@
-33,14
+35,14
@@
class ElementaryAlgorithm(BasicObjects.Algorithm):
name = "ResiduFormula",
default = "Taylor",
typecast = str,
name = "ResiduFormula",
default = "Taylor",
typecast = str,
- message = "Formule de r
ésidu utilisé
e",
+ message = "Formule de r
ésidu utilisé
e",
listval = ["Norm", "TaylorOnNorm", "Taylor"],
)
self.defineRequiredParameter(
name = "EpsilonMinimumExponent",
default = -8,
typecast = int,
listval = ["Norm", "TaylorOnNorm", "Taylor"],
)
self.defineRequiredParameter(
name = "EpsilonMinimumExponent",
default = -8,
typecast = int,
- message = "Exposant minimal en puissance de 10 pour le multiplicateur d'incr
é
ment",
+ message = "Exposant minimal en puissance de 10 pour le multiplicateur d'incr
é
ment",
minval = -20,
maxval = 0,
)
minval = -20,
maxval = 0,
)
@@
-48,13
+50,13
@@
class ElementaryAlgorithm(BasicObjects.Algorithm):
name = "InitialDirection",
default = [],
typecast = list,
name = "InitialDirection",
default = [],
typecast = list,
- message = "Direction initiale de la d
érivé
e directionnelle autour du point nominal",
+ message = "Direction initiale de la d
érivé
e directionnelle autour du point nominal",
)
self.defineRequiredParameter(
name = "AmplitudeOfInitialDirection",
default = 1.,
typecast = float,
)
self.defineRequiredParameter(
name = "AmplitudeOfInitialDirection",
default = 1.,
typecast = float,
- message = "Amplitude de la direction initiale de la d
érivé
e directionnelle autour du point nominal",
+ message = "Amplitude de la direction initiale de la d
érivé
e directionnelle autour du point nominal",
)
self.defineRequiredParameter(
name = "AmplitudeOfTangentPerturbation",
)
self.defineRequiredParameter(
name = "AmplitudeOfTangentPerturbation",
@@
-67,19
+69,19
@@
class ElementaryAlgorithm(BasicObjects.Algorithm):
self.defineRequiredParameter(
name = "SetSeed",
typecast = numpy.random.seed,
self.defineRequiredParameter(
name = "SetSeed",
typecast = numpy.random.seed,
- message = "Graine fix
ée pour le générateur alé
atoire",
+ message = "Graine fix
ée pour le générateur alé
atoire",
)
self.defineRequiredParameter(
name = "PlotAndSave",
default = False,
typecast = bool,
)
self.defineRequiredParameter(
name = "PlotAndSave",
default = False,
typecast = bool,
- message = "Trace et sauve les r
é
sultats",
+ message = "Trace et sauve les r
é
sultats",
)
self.defineRequiredParameter(
name = "ResultFile",
default = self._name+"_result_file",
typecast = str,
)
self.defineRequiredParameter(
name = "ResultFile",
default = self._name+"_result_file",
typecast = str,
- message = "Nom de base (hors extension) des fichiers de sauvegarde des r
é
sultats",
+ message = "Nom de base (hors extension) des fichiers de sauvegarde des r
é
sultats",
)
self.defineRequiredParameter(
name = "ResultTitle",
)
self.defineRequiredParameter(
name = "ResultTitle",
@@
-91,34
+93,44
@@
class ElementaryAlgorithm(BasicObjects.Algorithm):
name = "ResultLabel",
default = "",
typecast = str,
name = "ResultLabel",
default = "",
typecast = str,
- message = "Label de la courbe trac
é
e dans la figure",
+ message = "Label de la courbe trac
é
e dans la figure",
)
self.defineRequiredParameter(
name = "StoreSupplementaryCalculations",
default = [],
typecast = tuple,
)
self.defineRequiredParameter(
name = "StoreSupplementaryCalculations",
default = [],
typecast = tuple,
- message = "Liste de calculs supplémentaires à stocker et/ou effectuer",
- listval = ["CurrentState", "Residu", "SimulatedObservationAtCurrentState"]
+ message = "Liste de calculs supplémentaires à stocker et/ou effectuer",
+ listval = [
+ "CurrentState",
+ "Residu",
+ "SimulatedObservationAtCurrentState",
+ ]
)
)
+ self.requireInputArguments(
+ mandatory= ("Xb", "HO"),
+ )
+ self.setAttributes(tags=(
+ "Checking",
+ ))
def run(self, Xb=None, Y=None, U=None, HO=None, EM=None, CM=None, R=None, B=None, Q=None, Parameters=None):
def run(self, Xb=None, Y=None, U=None, HO=None, EM=None, CM=None, R=None, B=None, Q=None, Parameters=None):
- self._pre_run(Parameters)
+ self._pre_run(Parameters
, Xb, Y, U, HO, EM, CM, R, B, Q
)
#
Hm = HO["Direct"].appliedTo
if self._parameters["ResiduFormula"] in ["Taylor", "TaylorOnNorm"]:
Ht = HO["Tangent"].appliedInXTo
#
# ----------
#
Hm = HO["Direct"].appliedTo
if self._parameters["ResiduFormula"] in ["Taylor", "TaylorOnNorm"]:
Ht = HO["Tangent"].appliedInXTo
#
# ----------
- Perturbations = [ 10**i for i in
x
range(self._parameters["EpsilonMinimumExponent"],1) ]
+ Perturbations = [ 10**i for i in range(self._parameters["EpsilonMinimumExponent"],1) ]
Perturbations.reverse()
#
X = numpy.asmatrix(numpy.ravel( Xb )).T
FX = numpy.asmatrix(numpy.ravel( Hm( X ) )).T
NormeX = numpy.linalg.norm( X )
NormeFX = numpy.linalg.norm( FX )
Perturbations.reverse()
#
X = numpy.asmatrix(numpy.ravel( Xb )).T
FX = numpy.asmatrix(numpy.ravel( Hm( X ) )).T
NormeX = numpy.linalg.norm( X )
NormeFX = numpy.linalg.norm( FX )
- if
"CurrentState" in self._parameters["StoreSupplementaryCalculations"]
:
+ if
self._toStore("CurrentState")
:
self.StoredVariables["CurrentState"].store( numpy.ravel(Xn) )
self.StoredVariables["CurrentState"].store( numpy.ravel(Xn) )
- if
"SimulatedObservationAtCurrentState" in self._parameters["StoreSupplementaryCalculations"]
:
+ if
self._toStore("SimulatedObservationAtCurrentState")
:
self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX) )
#
if len(self._parameters["InitialDirection"]) == 0:
self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX) )
#
if len(self._parameters["InitialDirection"]) == 0:
@@
-141,80
+153,78
@@
class ElementaryAlgorithm(BasicObjects.Algorithm):
#
# Entete des resultats
# --------------------
#
# Entete des resultats
# --------------------
- __marge = 12*" "
- __precision = """
+ __marge = 12*
u
" "
+ __precision =
u
"""
Remarque : les nombres inferieurs a %.0e (environ) representent un zero
a la precision machine.\n"""%mpr
if self._parameters["ResiduFormula"] == "Taylor":
Remarque : les nombres inferieurs a %.0e (environ) representent un zero
a la precision machine.\n"""%mpr
if self._parameters["ResiduFormula"] == "Taylor":
- __entete =
" i Alpha ||X|| ||F(X)|| ||F(X+dX)|| ||dX|| ||F(X+dX)-F(X)|| ||F(X+dX)-F(X)||/||dX|| R(Alpha) log( R )
"
- __msgdoc = """
- On observe le r
ésidu issu du dé
veloppement de Taylor de la fonction F,
- normalis
é
par la valeur au point nominal :
+ __entete =
u" i Alpha ||X|| ||F(X)|| ||F(X+dX)|| ||dX|| ||F(X+dX)-F(X)|| ||F(X+dX)-F(X)||/||dX|| R(Alpha) log( R )
"
+ __msgdoc =
u
"""
+ On observe le r
esidu issu du de
veloppement de Taylor de la fonction F,
+ normalis
e
par la valeur au point nominal :
|| F(X+Alpha*dX) - F(X) - Alpha * GradientF_X(dX) ||
R(Alpha) = ----------------------------------------------------
|| F(X) ||
|| F(X+Alpha*dX) - F(X) - Alpha * GradientF_X(dX) ||
R(Alpha) = ----------------------------------------------------
|| F(X) ||
- Si le r
ésidu décroit et que la dé
croissance se fait en Alpha**2 selon Alpha,
- cela signifie que le gradient est bien calcul
é jusqu'à la précision d'arrê
t
- de la d
écroissance quadratique, et que F n'est pas liné
aire.
+ Si le r
esidu decroit et que la de
croissance se fait en Alpha**2 selon Alpha,
+ cela signifie que le gradient est bien calcul
e jusqu'a la precision d'arre
t
+ de la d
ecroissance quadratique, et que F n'est pas line
aire.
- Si le r
ésidu décroit et que la dé
croissance se fait en Alpha selon Alpha,
- jusqu'
à un certain seuil aprés lequel le ré
sidu est faible et constant, cela
- signifie que F est lin
éaire et que le résidu décroit à
partir de l'erreur
+ Si le r
esidu decroit et que la de
croissance se fait en Alpha selon Alpha,
+ jusqu'
a un certain seuil apres lequel le re
sidu est faible et constant, cela
+ signifie que F est lin
eaire et que le residu decroit a
partir de l'erreur
faite dans le calcul du terme GradientF_X.
faite dans le calcul du terme GradientF_X.
- On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
- """ + __precision
+ On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.\n""" + __precision
if self._parameters["ResiduFormula"] == "TaylorOnNorm":
if self._parameters["ResiduFormula"] == "TaylorOnNorm":
- __entete =
" i Alpha ||X|| ||F(X)|| ||F(X+dX)|| ||dX|| ||F(X+dX)-F(X)|| ||F(X+dX)-F(X)||/||dX|| R(Alpha) log( R )
"
- __msgdoc = """
- On observe le r
ésidu issu du dé
veloppement de Taylor de la fonction F,
- rapport
é au paramètre Alpha au carré
:
+ __entete =
u" i Alpha ||X|| ||F(X)|| ||F(X+dX)|| ||dX|| ||F(X+dX)-F(X)|| ||F(X+dX)-F(X)||/||dX|| R(Alpha) log( R )
"
+ __msgdoc =
u
"""
+ On observe le r
esidu issu du de
veloppement de Taylor de la fonction F,
+ rapport
e au parametre Alpha au carre
:
|| F(X+Alpha*dX) - F(X) - Alpha * GradientF_X(dX) ||
R(Alpha) = ----------------------------------------------------
Alpha**2
|| F(X+Alpha*dX) - F(X) - Alpha * GradientF_X(dX) ||
R(Alpha) = ----------------------------------------------------
Alpha**2
- C'est un r
ésidu essentiellement similaire au critè
re classique de Taylor,
- mais son comportement peut diff
érer selon les propriétés numé
riques des
- calculs de ses diff
é
rents termes.
+ C'est un r
esidu essentiellement similaire au crite
re classique de Taylor,
+ mais son comportement peut diff
erer selon les proprietes nume
riques des
+ calculs de ses diff
e
rents termes.
- Si le r
ésidu est constant jusqu'à
un certain seuil et croissant ensuite,
- cela signifie que le gradient est bien calcul
é jusqu'à cette pré
cision
- d'arr
êt, et que F n'est pas liné
aire.
+ Si le r
esidu est constant jusqu'a
un certain seuil et croissant ensuite,
+ cela signifie que le gradient est bien calcul
e jusqu'a cette pre
cision
+ d'arr
et, et que F n'est pas line
aire.
- Si le r
ésidu est systé
matiquement croissant en partant d'une valeur faible
- par rapport
à ||F(X)||, cela signifie que F est (quasi-)liné
aire et que le
- calcul du gradient est correct jusqu'au moment o
ù le ré
sidu est de l'ordre de
+ Si le r
esidu est syste
matiquement croissant en partant d'une valeur faible
+ par rapport
a ||F(X)||, cela signifie que F est (quasi-)line
aire et que le
+ calcul du gradient est correct jusqu'au moment o
u le re
sidu est de l'ordre de
grandeur de ||F(X)||.
grandeur de ||F(X)||.
- On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
- """ + __precision
+ On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.\n""" + __precision
if self._parameters["ResiduFormula"] == "Norm":
if self._parameters["ResiduFormula"] == "Norm":
- __entete =
" i Alpha ||X|| ||F(X)|| ||F(X+dX)|| ||dX|| ||F(X+dX)-F(X)|| ||F(X+dX)-F(X)||/||dX|| R(Alpha) log( R )
"
- __msgdoc = """
- On observe le r
ésidu, qui est basé
sur une approximation du gradient :
+ __entete =
u" i Alpha ||X|| ||F(X)|| ||F(X+dX)|| ||dX|| ||F(X+dX)-F(X)|| ||F(X+dX)-F(X)||/||dX|| R(Alpha) log( R )
"
+ __msgdoc =
u
"""
+ On observe le r
esidu, qui est base
sur une approximation du gradient :
|| F(X+Alpha*dX) - F(X) ||
R(Alpha) = ---------------------------
Alpha
|| F(X+Alpha*dX) - F(X) ||
R(Alpha) = ---------------------------
Alpha
- qui doit rester constant jusqu'
à ce que l'on atteigne la pré
cision du calcul.
+ qui doit rester constant jusqu'
a ce que l'on atteigne la pre
cision du calcul.
- On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
- """ + __precision
+ On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.\n""" + __precision
#
if len(self._parameters["ResultTitle"]) > 0:
#
if len(self._parameters["ResultTitle"]) > 0:
- msgs = "\n"
- msgs += __marge + "====" + "="*len(self._parameters["ResultTitle"]) + "====\n"
- msgs += __marge + " " + self._parameters["ResultTitle"] + "\n"
- msgs += __marge + "====" + "="*len(self._parameters["ResultTitle"]) + "====\n"
+ __rt = unicode(self._parameters["ResultTitle"])
+ msgs = u"\n"
+ msgs += __marge + "====" + "="*len(__rt) + "====\n"
+ msgs += __marge + " " + __rt + "\n"
+ msgs += __marge + "====" + "="*len(__rt) + "====\n"
else:
else:
- msgs = ""
+ msgs =
u
""
msgs += __msgdoc
#
msgs += __msgdoc
#
- __nbtirets = len(__entete)
+ __nbtirets = len(__entete)
+ 2
msgs += "\n" + __marge + "-"*__nbtirets
msgs += "\n" + __marge + __entete
msgs += "\n" + __marge + "-"*__nbtirets
msgs += "\n" + __marge + "-"*__nbtirets
msgs += "\n" + __marge + __entete
msgs += "\n" + __marge + "-"*__nbtirets
@@
-234,9
+244,9
@@
class ElementaryAlgorithm(BasicObjects.Algorithm):
FX_plus_dX = Hm( X + dX )
FX_plus_dX = numpy.asmatrix(numpy.ravel( FX_plus_dX )).T
#
FX_plus_dX = Hm( X + dX )
FX_plus_dX = numpy.asmatrix(numpy.ravel( FX_plus_dX )).T
#
- if
"CurrentState" in self._parameters["StoreSupplementaryCalculations"]
:
+ if
self._toStore("CurrentState")
:
self.StoredVariables["CurrentState"].store( numpy.ravel(X + dX) )
self.StoredVariables["CurrentState"].store( numpy.ravel(X + dX) )
- if
"SimulatedObservationAtCurrentState" in self._parameters["StoreSupplementaryCalculations"]
:
+ if
self._toStore("SimulatedObservationAtCurrentState")
:
self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_plus_dX) )
#
NormedX = numpy.linalg.norm( dX )
self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_plus_dX) )
#
NormedX = numpy.linalg.norm( dX )
@@
-249,8
+259,8
@@
class ElementaryAlgorithm(BasicObjects.Algorithm):
# Residu Norm
NormedFXsAm = NormedFX/amplitude
#
# Residu Norm
NormedFXsAm = NormedFX/amplitude
#
- # if numpy.abs(NormedFX) < 1.e-20:
- # break
+ #
Â
if numpy.abs(NormedFX) < 1.e-20:
+ #
Â
break
#
NormesdX.append( NormedX )
NormesFXdX.append( NormeFXdX )
#
NormesdX.append( NormedX )
NormesFXdX.append( NormeFXdX )
@@
-276,9
+286,8
@@
class ElementaryAlgorithm(BasicObjects.Algorithm):
msgs += "\n"
#
# ----------
msgs += "\n"
#
# ----------
- print
- print "Results of gradient check by \"%s\" formula:"%self._parameters["ResiduFormula"]
- print msgs
+ print("\nResults of gradient check by \"%s\" formula:"%self._parameters["ResiduFormula"])
+ print(msgs)
#
if self._parameters["PlotAndSave"]:
f = open(str(self._parameters["ResultFile"])+".txt",'a')
#
if self._parameters["PlotAndSave"]:
f = open(str(self._parameters["ResultFile"])+".txt",'a')
@@
-287,10
+296,10
@@
class ElementaryAlgorithm(BasicObjects.Algorithm):
#
Residus = self.StoredVariables["Residu"][-len(Perturbations):]
if self._parameters["ResiduFormula"] in ["Taylor", "TaylorOnNorm"]:
#
Residus = self.StoredVariables["Residu"][-len(Perturbations):]
if self._parameters["ResiduFormula"] in ["Taylor", "TaylorOnNorm"]:
- PerturbationsCarre = [ 10**(2*i) for i in
x
range(-len(NormesdFXGdX)+1,1) ]
+ PerturbationsCarre = [ 10**(2*i) for i in range(-len(NormesdFXGdX)+1,1) ]
PerturbationsCarre.reverse()
dessiner(
PerturbationsCarre.reverse()
dessiner(
- Perturbations,
+ Perturbations,
Residus,
titre = self._parameters["ResultTitle"],
label = self._parameters["ResultLabel"],
Residus,
titre = self._parameters["ResultTitle"],
label = self._parameters["ResultLabel"],
@@
-302,7
+311,7
@@
class ElementaryAlgorithm(BasicObjects.Algorithm):
)
elif self._parameters["ResiduFormula"] == "Norm":
dessiner(
)
elif self._parameters["ResiduFormula"] == "Norm":
dessiner(
- Perturbations,
+ Perturbations,
Residus,
titre = self._parameters["ResultTitle"],
label = self._parameters["ResultLabel"],
Residus,
titre = self._parameters["ResultTitle"],
label = self._parameters["ResultLabel"],
@@
-315,7
+324,7
@@
class ElementaryAlgorithm(BasicObjects.Algorithm):
return 0
# ==============================================================================
return 0
# ==============================================================================
-
+
def dessiner(
X,
Y,
def dessiner(
X,
Y,
@@
-326,7
+335,7
@@
def dessiner(
filename = "",
pause = False,
YRef = None, # Vecteur de reference a comparer a Y
filename = "",
pause = False,
YRef = None, # Vecteur de reference a comparer a Y
- recalYRef = True, # Decalage du point 0 de YRef
à
Y[0]
+ recalYRef = True, # Decalage du point 0 de YRef
a
Y[0]
normdY0 = 0., # Norme de DeltaY[0]
):
import Gnuplot
normdY0 = 0., # Norme de DeltaY[0]
):
import Gnuplot
@@
-337,8
+346,8
@@
def dessiner(
__g('set grid')
__g('set autoscale')
__g('set title "'+titre+'"')
__g('set grid')
__g('set autoscale')
__g('set title "'+titre+'"')
- # __g('set
xrange []
reverse')
- # __g('set yrange [0:2]')
+ # __g('set
range []Â
reverse')
+ #
Â
__g('set yrange [0:2]')
#
if logX:
steps = numpy.log10( X )
#
if logX:
steps = numpy.log10( X )
@@
-371,8
+380,8
@@
def dessiner(
if filename != "":
__g.hardcopy( filename, color=1)
if pause:
if filename != "":
__g.hardcopy( filename, color=1)
if pause:
-
raw_input('Please press return to continue...\n'
)
+
eval(input('Please press return to continue...\n')
)
# ==============================================================================
if __name__ == "__main__":
# ==============================================================================
if __name__ == "__main__":
- print
'\n AUTODIAGNOSTIC \n'
+ print
('\n AUTODIAGNOSTIC\n')