Salome HOME
Minor improvement of debug informations
[modules/adao.git] / src / daComposant / daAlgorithms / LinearityTest.py
1 #-*-coding:iso-8859-1-*-
2 #
3 #  Copyright (C) 2008-2014 EDF R&D
4 #
5 #  This library is free software; you can redistribute it and/or
6 #  modify it under the terms of the GNU Lesser General Public
7 #  License as published by the Free Software Foundation; either
8 #  version 2.1 of the License.
9 #
10 #  This library is distributed in the hope that it will be useful,
11 #  but WITHOUT ANY WARRANTY; without even the implied warranty of
12 #  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13 #  Lesser General Public License for more details.
14 #
15 #  You should have received a copy of the GNU Lesser General Public
16 #  License along with this library; if not, write to the Free Software
17 #  Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
18 #
19 #  See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
20 #
21 #  Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
22
23 import logging
24 from daCore import BasicObjects, PlatformInfo
25 m = PlatformInfo.SystemUsage()
26 import numpy, math
27
28 # ==============================================================================
29 class ElementaryAlgorithm(BasicObjects.Algorithm):
30     def __init__(self):
31         BasicObjects.Algorithm.__init__(self, "FUNCTIONTEST")
32         self.defineRequiredParameter(
33             name     = "ResiduFormula",
34             default  = "CenteredDL",
35             typecast = str,
36             message  = "Formule de résidu utilisée",
37             listval  = ["CenteredDL", "Taylor", "NominalTaylor", "NominalTaylorRMS"],
38             )
39         self.defineRequiredParameter(
40             name     = "EpsilonMinimumExponent",
41             default  = -8,
42             typecast = int,
43             message  = "Exposant minimal en puissance de 10 pour le multiplicateur d'incrément",
44             minval   = -20,
45             maxval   = 0,
46             )
47         self.defineRequiredParameter(
48             name     = "InitialDirection",
49             default  = [],
50             typecast = list,
51             message  = "Direction initiale de la dérivée directionnelle autour du point nominal",
52             )
53         self.defineRequiredParameter(
54             name     = "AmplitudeOfInitialDirection",
55             default  = 1.,
56             typecast = float,
57             message  = "Amplitude de la direction initiale de la dérivée directionnelle autour du point nominal",
58             )
59         self.defineRequiredParameter(
60             name     = "SetSeed",
61             typecast = numpy.random.seed,
62             message  = "Graine fixée pour le générateur aléatoire",
63             )
64         self.defineRequiredParameter(
65             name     = "ResultTitle",
66             default  = "",
67             typecast = str,
68             message  = "Titre du tableau et de la figure",
69             )
70
71     def run(self, Xb=None, Y=None, U=None, HO=None, EM=None, CM=None, R=None, B=None, Q=None, Parameters=None):
72         logging.debug("%s Lancement"%self._name)
73         logging.debug("%s Taille mémoire utilisée de %.1f Mo"%(self._name, m.getUsedMemory("M")))
74         #
75         # Paramètres de pilotage
76         # ----------------------
77         self.setParameters(Parameters)
78         #
79         def RMS(V1, V2):
80             import math
81             return math.sqrt( ((numpy.ravel(V2) - numpy.ravel(V1))**2).sum() / float(numpy.ravel(V1).size) )
82         #
83         # Opérateurs
84         # ----------
85         Hm = HO["Direct"].appliedTo
86         if self._parameters["ResiduFormula"] in ["Taylor", "NominalTaylor", "NominalTaylorRMS"]:
87             Ht = HO["Tangent"].appliedInXTo
88         #
89         # Construction des perturbations
90         # ------------------------------
91         Perturbations = [ 10**i for i in xrange(self._parameters["EpsilonMinimumExponent"],1) ]
92         Perturbations.reverse()
93         #
94         # Calcul du point courant
95         # -----------------------
96         Xn      = numpy.asmatrix(numpy.ravel( Xb )).T
97         FX      = numpy.asmatrix(numpy.ravel( Hm( Xn ) )).T
98         NormeX  = numpy.linalg.norm( Xn )
99         NormeFX = numpy.linalg.norm( FX )
100         #
101         # Fabrication de la direction de  l'incrément dX
102         # ----------------------------------------------
103         if len(self._parameters["InitialDirection"]) == 0:
104             dX0 = []
105             for v in Xn.A1:
106                 if abs(v) > 1.e-8:
107                     dX0.append( numpy.random.normal(0.,abs(v)) )
108                 else:
109                     dX0.append( numpy.random.normal(0.,Xn.mean()) )
110         else:
111             dX0 = numpy.ravel( self._parameters["InitialDirection"] )
112         #
113         dX0 = float(self._parameters["AmplitudeOfInitialDirection"]) * numpy.matrix( dX0 ).T
114         #
115         # Calcul du gradient au point courant X pour l'incrément dX
116         # ---------------------------------------------------------
117         if self._parameters["ResiduFormula"] in ["Taylor", "NominalTaylor", "NominalTaylorRMS"]:
118             GradFxdX = Ht( (Xn, dX0) )
119             GradFxdX = numpy.asmatrix(numpy.ravel( GradFxdX )).T
120         #
121         # Entete des resultats
122         # --------------------
123         __marge =  12*" "
124         if self._parameters["ResiduFormula"] == "CenteredDL":
125             __entete = "  i   Alpha     ||X||      ||F(X)||   |   R(Alpha)   log( R )  "
126             __msgdoc = """
127             On observe le residu provenant de la différence centrée des valeurs de F
128             au point nominal et aux points perturbés, normalisée par la valeur au
129             point nominal :
130
131                          || F(X+Alpha*dX) + F(X-Alpha*dX) - 2*F(X) ||
132               R(Alpha) = --------------------------------------------
133                                          || F(X) ||
134
135             S'il reste constamment trés faible par rapport à 1, l'hypothèse de linéarité
136             de F est vérifiée.
137
138             Si le résidu varie, ou qu'il est de l'ordre de 1 ou plus, et qu'il n'est
139             faible qu'à partir d'un certain ordre d'incrément, l'hypothèse de linéarité
140             de F n'est pas vérifiée.
141
142             Si le résidu décroit et que la décroissance se fait en Alpha**2 selon Alpha,
143             cela signifie que le gradient est bien calculé jusqu'à la précision d'arrêt
144             de la décroissance quadratique.
145
146             On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
147             """
148         if self._parameters["ResiduFormula"] == "Taylor":
149             __entete = "  i   Alpha     ||X||      ||F(X)||   |   R(Alpha)   log( R )  "
150             __msgdoc = """
151             On observe le residu issu du développement de Taylor de la fonction F,
152             normalisée par la valeur au point nominal :
153
154                          || F(X+Alpha*dX) - F(X) - Alpha * GradientF_X(dX) ||
155               R(Alpha) = ----------------------------------------------------
156                                          || F(X) ||
157
158             S'il reste constamment trés faible par rapport à 1, l'hypothèse de linéarité
159             de F est vérifiée.
160
161             Si le résidu varie, ou qu'il est de l'ordre de 1 ou plus, et qu'il n'est
162             faible qu'à partir d'un certain ordre d'incrément, l'hypothèse de linéarité
163             de F n'est pas vérifiée.
164
165             Si le résidu décroit et que la décroissance se fait en Alpha**2 selon Alpha,
166             cela signifie que le gradient est bien calculé jusqu'à la précision d'arrêt
167             de la décroissance.
168
169             On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
170             """
171         if self._parameters["ResiduFormula"] == "NominalTaylor":
172             __entete = "  i   Alpha     ||X||      ||F(X)||   |   R(Alpha)   |R-1| en %  "
173             __msgdoc = """
174             On observe le residu obtenu à partir de deux approximations d'ordre 1 de F(X),
175             normalisées par la valeur au point nominal :
176
177               R(Alpha) = max(
178                 || F(X+Alpha*dX) - Alpha * F(dX) || / || F(X) ||,
179                 || F(X-Alpha*dX) + Alpha * F(dX) || / || F(X) ||,
180               )
181
182             S'il reste constamment égal à 1 à moins de 2 ou 3 pourcents prés (c'est-à-dire
183             que |R-1| reste égal à 2 ou 3 pourcents), c'est que l'hypothèse de linéarité
184             de F est vérifiée.
185
186             S'il est égal à 1 sur une partie seulement du domaine de variation de
187             l'incrément Alpha, c'est sur cette partie que l'hypothèse de linéarité de F
188             est vérifiée.
189
190             On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
191             """
192         if self._parameters["ResiduFormula"] == "NominalTaylorRMS":
193             __entete = "  i   Alpha     ||X||      ||F(X)||   |   R(Alpha)    |R| en %  "
194             __msgdoc = """
195             On observe le residu obtenu à partir de deux approximations d'ordre 1 de F(X),
196             normalisées par la valeur au point nominal :
197
198               R(Alpha) = max(
199                 RMS( F(X), F(X+Alpha*dX) - Alpha * F(dX) ) / || F(X) ||,
200                 RMS( F(X), F(X-Alpha*dX) + Alpha * F(dX) ) / || F(X) ||,
201               )
202
203             S'il reste constamment égal à 0 à moins de 1 ou 2 pourcents prés, c'est
204             que l'hypothèse de linéarité de F est vérifiée.
205
206             S'il est égal à 0 sur une partie seulement du domaine de variation de
207             l'incrément Alpha, c'est sur cette partie que l'hypothèse de linéarité de F
208             est vérifiée.
209
210             On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
211             """
212         #
213         if len(self._parameters["ResultTitle"]) > 0:
214             msgs  = "\n"
215             msgs += __marge + "====" + "="*len(self._parameters["ResultTitle"]) + "====\n"
216             msgs += __marge + "    " + self._parameters["ResultTitle"] + "\n"
217             msgs += __marge + "====" + "="*len(self._parameters["ResultTitle"]) + "====\n"
218         else:
219             msgs  = ""
220         msgs += __msgdoc
221         #
222         __nbtirets = len(__entete)
223         msgs += "\n" + __marge + "-"*__nbtirets
224         msgs += "\n" + __marge + __entete
225         msgs += "\n" + __marge + "-"*__nbtirets
226         #
227         # Boucle sur les perturbations
228         # ----------------------------
229         for i,amplitude in enumerate(Perturbations):
230             dX      = amplitude * dX0
231             #
232             if self._parameters["ResiduFormula"] == "CenteredDL":
233                 FX_plus_dX  = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
234                 FX_moins_dX = numpy.asmatrix(numpy.ravel( Hm( Xn - dX ) )).T
235                 #
236                 Residu = numpy.linalg.norm( FX_plus_dX + FX_moins_dX - 2 * FX ) / NormeFX
237                 #
238                 self.StoredVariables["CostFunctionJ"].store( Residu )
239                 msg = "  %2i  %5.0e   %9.3e   %9.3e   |   %9.3e   %4.0f"%(i,amplitude,NormeX,NormeFX,Residu,math.log10(max(1.e-99,Residu)))
240                 msgs += "\n" + __marge + msg
241             #
242             if self._parameters["ResiduFormula"] == "Taylor":
243                 FX_plus_dX  = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
244                 #
245                 Residu = numpy.linalg.norm( FX_plus_dX - FX - amplitude * GradFxdX ) / NormeFX
246                 #
247                 self.StoredVariables["CostFunctionJ"].store( Residu )
248                 msg = "  %2i  %5.0e   %9.3e   %9.3e   |   %9.3e   %4.0f"%(i,amplitude,NormeX,NormeFX,Residu,math.log10(max(1.e-99,Residu)))
249                 msgs += "\n" + __marge + msg
250             #
251             if self._parameters["ResiduFormula"] == "NominalTaylor":
252                 FX_plus_dX  = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
253                 FX_moins_dX = numpy.asmatrix(numpy.ravel( Hm( Xn - dX ) )).T
254                 FdX         = numpy.asmatrix(numpy.ravel( Hm( dX ) )).T
255                 #
256                 Residu = max(
257                     numpy.linalg.norm( FX_plus_dX  - amplitude * FdX ) / NormeFX,
258                     numpy.linalg.norm( FX_moins_dX + amplitude * FdX ) / NormeFX,
259                     )
260                 #
261                 self.StoredVariables["CostFunctionJ"].store( Residu )
262                 msg = "  %2i  %5.0e   %9.3e   %9.3e   |   %9.3e   %5i %s"%(i,amplitude,NormeX,NormeFX,Residu,100*abs(Residu-1),"%")
263                 msgs += "\n" + __marge + msg
264             #
265             if self._parameters["ResiduFormula"] == "NominalTaylorRMS":
266                 FX_plus_dX  = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
267                 FX_moins_dX = numpy.asmatrix(numpy.ravel( Hm( Xn - dX ) )).T
268                 FdX         = numpy.asmatrix(numpy.ravel( Hm( dX ) )).T
269                 #
270                 Residu = max(
271                     RMS( FX, FX_plus_dX   - amplitude * FdX ) / NormeFX,
272                     RMS( FX, FX_moins_dX  + amplitude * FdX ) / NormeFX,
273                     )
274                 #
275                 self.StoredVariables["CostFunctionJ"].store( Residu )
276                 msg = "  %2i  %5.0e   %9.3e   %9.3e   |   %9.3e   %5i %s"%(i,amplitude,NormeX,NormeFX,Residu,100*Residu,"%")
277                 msgs += "\n" + __marge + msg
278         #
279         msgs += "\n" + __marge + "-"*__nbtirets
280         msgs += "\n"
281         #
282         # Sorties eventuelles
283         # -------------------
284         print
285         print "Results of linearity check by \"%s\" formula:"%self._parameters["ResiduFormula"]
286         print msgs
287         #
288         logging.debug("%s Nombre d'évaluation(s) de l'opérateur d'observation direct/tangent/adjoint.: %i/%i/%i"%(self._name, HO["Direct"].nbcalls(0),HO["Tangent"].nbcalls(0),HO["Adjoint"].nbcalls(0)))
289         logging.debug("%s Nombre d'appels au cache d'opérateur d'observation direct/tangent/adjoint..: %i/%i/%i"%(self._name, HO["Direct"].nbcalls(3),HO["Tangent"].nbcalls(3),HO["Adjoint"].nbcalls(3)))
290         logging.debug("%s Taille mémoire utilisée de %.1f Mo"%(self._name, m.getUsedMemory("M")))
291         logging.debug("%s Terminé"%self._name)
292         #
293         return 0
294
295 # ==============================================================================
296 if __name__ == "__main__":
297     print '\n AUTODIAGNOSTIC \n'