Salome HOME
Merge branch 'V7_main'
[modules/adao.git] / src / daComposant / daAlgorithms / AdjointTest.py
1 #-*-coding:iso-8859-1-*-
2 #
3 #  Copyright (C) 2008-2014 EDF R&D
4 #
5 #  This library is free software; you can redistribute it and/or
6 #  modify it under the terms of the GNU Lesser General Public
7 #  License as published by the Free Software Foundation; either
8 #  version 2.1 of the License.
9 #
10 #  This library is distributed in the hope that it will be useful,
11 #  but WITHOUT ANY WARRANTY; without even the implied warranty of
12 #  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13 #  Lesser General Public License for more details.
14 #
15 #  You should have received a copy of the GNU Lesser General Public
16 #  License along with this library; if not, write to the Free Software
17 #  Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
18 #
19 #  See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
20 #
21 #  Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
22
23 import logging
24 from daCore import BasicObjects, PlatformInfo
25 m = PlatformInfo.SystemUsage()
26 import numpy
27
28 # ==============================================================================
29 class ElementaryAlgorithm(BasicObjects.Algorithm):
30     def __init__(self):
31         BasicObjects.Algorithm.__init__(self, "ADJOINTTEST")
32         self.defineRequiredParameter(
33             name     = "ResiduFormula",
34             default  = "ScalarProduct",
35             typecast = str,
36             message  = "Formule de résidu utilisée",
37             listval  = ["ScalarProduct"],
38             )
39         self.defineRequiredParameter(
40             name     = "EpsilonMinimumExponent",
41             default  = -8,
42             typecast = int,
43             message  = "Exposant minimal en puissance de 10 pour le multiplicateur d'incrément",
44             minval   = -20,
45             maxval   = 0,
46             )
47         self.defineRequiredParameter(
48             name     = "InitialDirection",
49             default  = [],
50             typecast = list,
51             message  = "Direction initiale de la dérivée directionnelle autour du point nominal",
52             )
53         self.defineRequiredParameter(
54             name     = "AmplitudeOfInitialDirection",
55             default  = 1.,
56             typecast = float,
57             message  = "Amplitude de la direction initiale de la dérivée directionnelle autour du point nominal",
58             )
59         self.defineRequiredParameter(
60             name     = "SetSeed",
61             typecast = numpy.random.seed,
62             message  = "Graine fixée pour le générateur aléatoire",
63             )
64         self.defineRequiredParameter(
65             name     = "ResultTitle",
66             default  = "",
67             typecast = str,
68             message  = "Titre du tableau et de la figure",
69             )
70
71     def run(self, Xb=None, Y=None, U=None, HO=None, EM=None, CM=None, R=None, B=None, Q=None, Parameters=None):
72         logging.debug("%s Lancement"%self._name)
73         logging.debug("%s Taille mémoire utilisée de %.1f Mo"%(self._name, m.getUsedMemory("M")))
74         #
75         self.setParameters(Parameters)
76         #
77         Hm = HO["Direct"].appliedTo
78         Ht = HO["Tangent"].appliedInXTo
79         Ha = HO["Adjoint"].appliedInXTo
80         #
81         # ----------
82         Perturbations = [ 10**i for i in xrange(self._parameters["EpsilonMinimumExponent"],1) ]
83         Perturbations.reverse()
84         #
85         X       = numpy.asmatrix(numpy.ravel( Xb )).T
86         NormeX  = numpy.linalg.norm( X )
87         if Y is None:
88             Y = numpy.asmatrix(numpy.ravel( Hm( X ) )).T
89         Y = numpy.asmatrix(numpy.ravel( Y )).T
90         NormeY = numpy.linalg.norm( Y )
91         #
92         if len(self._parameters["InitialDirection"]) == 0:
93             dX0 = []
94             for v in X.A1:
95                 if abs(v) > 1.e-8:
96                     dX0.append( numpy.random.normal(0.,abs(v)) )
97                 else:
98                     dX0.append( numpy.random.normal(0.,X.mean()) )
99         else:
100             dX0 = numpy.asmatrix(numpy.ravel( self._parameters["InitialDirection"] ))
101         #
102         dX0 = float(self._parameters["AmplitudeOfInitialDirection"]) * numpy.matrix( dX0 ).T
103         #
104         # Entete des resultats
105         # --------------------
106         __marge =  12*" "
107         if self._parameters["ResiduFormula"] == "ScalarProduct":
108             __entete = "  i   Alpha     ||X||       ||Y||       ||dX||        R(Alpha)  "
109             __msgdoc = """
110             On observe le residu qui est la difference de deux produits scalaires :
111
112               R(Alpha) = | < TangentF_X(dX) , Y > - < dX , AdjointF_X(Y) > |
113
114             qui doit rester constamment egal zero a la precision du calcul.
115             On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
116             Y doit etre dans l'image de F. S'il n'est pas donne, on prend Y = F(X).
117             """
118         #
119         if len(self._parameters["ResultTitle"]) > 0:
120             msgs  = "\n"
121             msgs += __marge + "====" + "="*len(self._parameters["ResultTitle"]) + "====\n"
122             msgs += __marge + "    " + self._parameters["ResultTitle"] + "\n"
123             msgs += __marge + "====" + "="*len(self._parameters["ResultTitle"]) + "====\n"
124         else:
125             msgs  = ""
126         msgs += __msgdoc
127         #
128         __nbtirets = len(__entete)
129         msgs += "\n" + __marge + "-"*__nbtirets
130         msgs += "\n" + __marge + __entete
131         msgs += "\n" + __marge + "-"*__nbtirets
132         #
133         Normalisation= -1
134         #
135         # ----------
136         for i,amplitude in enumerate(Perturbations):
137             dX          = amplitude * dX0
138             NormedX     = numpy.linalg.norm( dX )
139             #
140             TangentFXdX = numpy.asmatrix( Ht( (X,dX) ) )
141             AdjointFXY  = numpy.asmatrix( Ha( (X,Y)  ) )
142             #
143             Residu = abs(float(numpy.dot( TangentFXdX.A1 , Y.A1 ) - numpy.dot( dX.A1 , AdjointFXY.A1 )))
144             #
145             msg = "  %2i  %5.0e   %9.3e   %9.3e   %9.3e   |  %9.3e"%(i,amplitude,NormeX,NormeY,NormedX,Residu)
146             msgs += "\n" + __marge + msg
147             #
148             self.StoredVariables["CostFunctionJ"].store( Residu )
149         #
150         msgs += "\n" + __marge + "-"*__nbtirets
151         msgs += "\n"
152         #
153         # Sorties eventuelles
154         # -------------------
155         print
156         print "Results of adjoint check by \"%s\" formula:"%self._parameters["ResiduFormula"]
157         print msgs
158         #
159         logging.debug("%s Nombre d'évaluation(s) de l'opérateur d'observation direct/tangent/adjoint : %i/%i/%i"%(self._name, HO["Direct"].nbcalls()[0],HO["Tangent"].nbcalls()[0],HO["Adjoint"].nbcalls()[0]))
160         logging.debug("%s Taille mémoire utilisée de %.1f Mo"%(self._name, m.getUsedMemory("M")))
161         logging.debug("%s Terminé"%self._name)
162         #
163         return 0
164
165 # ==============================================================================
166 if __name__ == "__main__":
167     print '\n AUTODIAGNOSTIC \n'