Salome HOME
Documentation and source minor corrections for observers
[modules/adao.git] / src / daComposant / daAlgorithms / LinearityTest.py
1 #-*-coding:iso-8859-1-*-
2 #
3 #  Copyright (C) 2008-2015 EDF R&D
4 #
5 #  This library is free software; you can redistribute it and/or
6 #  modify it under the terms of the GNU Lesser General Public
7 #  License as published by the Free Software Foundation; either
8 #  version 2.1 of the License.
9 #
10 #  This library is distributed in the hope that it will be useful,
11 #  but WITHOUT ANY WARRANTY; without even the implied warranty of
12 #  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13 #  Lesser General Public License for more details.
14 #
15 #  You should have received a copy of the GNU Lesser General Public
16 #  License along with this library; if not, write to the Free Software
17 #  Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
18 #
19 #  See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
20 #
21 #  Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
22
23 import logging
24 from daCore import BasicObjects
25 import numpy, math
26
27 # ==============================================================================
28 class ElementaryAlgorithm(BasicObjects.Algorithm):
29     def __init__(self):
30         BasicObjects.Algorithm.__init__(self, "LINEARITYTEST")
31         self.defineRequiredParameter(
32             name     = "ResiduFormula",
33             default  = "CenteredDL",
34             typecast = str,
35             message  = "Formule de résidu utilisée",
36             listval  = ["CenteredDL", "Taylor", "NominalTaylor", "NominalTaylorRMS"],
37             )
38         self.defineRequiredParameter(
39             name     = "EpsilonMinimumExponent",
40             default  = -8,
41             typecast = int,
42             message  = "Exposant minimal en puissance de 10 pour le multiplicateur d'incrément",
43             minval   = -20,
44             maxval   = 0,
45             )
46         self.defineRequiredParameter(
47             name     = "InitialDirection",
48             default  = [],
49             typecast = list,
50             message  = "Direction initiale de la dérivée directionnelle autour du point nominal",
51             )
52         self.defineRequiredParameter(
53             name     = "AmplitudeOfInitialDirection",
54             default  = 1.,
55             typecast = float,
56             message  = "Amplitude de la direction initiale de la dérivée directionnelle autour du point nominal",
57             )
58         self.defineRequiredParameter(
59             name     = "AmplitudeOfTangentPerturbation",
60             default  = 1.e-2,
61             typecast = float,
62             message  = "Amplitude de la perturbation pour le calcul de la forme tangente",
63             minval   = 1.e-10,
64             maxval   = 1.,
65             )
66         self.defineRequiredParameter(
67             name     = "SetSeed",
68             typecast = numpy.random.seed,
69             message  = "Graine fixée pour le générateur aléatoire",
70             )
71         self.defineRequiredParameter(
72             name     = "ResultTitle",
73             default  = "",
74             typecast = str,
75             message  = "Titre du tableau et de la figure",
76             )
77         self.defineRequiredParameter(
78             name     = "StoreSupplementaryCalculations",
79             default  = [],
80             typecast = tuple,
81             message  = "Liste de calculs supplémentaires à stocker et/ou effectuer",
82             listval  = ["CurrentState", "Residu", "SimulatedObservationAtCurrentState"]
83             )
84
85     def run(self, Xb=None, Y=None, U=None, HO=None, EM=None, CM=None, R=None, B=None, Q=None, Parameters=None):
86         self._pre_run()
87         #
88         # Paramètres de pilotage
89         # ----------------------
90         self.setParameters(Parameters)
91         #
92         def RMS(V1, V2):
93             import math
94             return math.sqrt( ((numpy.ravel(V2) - numpy.ravel(V1))**2).sum() / float(numpy.ravel(V1).size) )
95         #
96         # Opérateurs
97         # ----------
98         Hm = HO["Direct"].appliedTo
99         if self._parameters["ResiduFormula"] in ["Taylor", "NominalTaylor", "NominalTaylorRMS"]:
100             Ht = HO["Tangent"].appliedInXTo
101         #
102         # Construction des perturbations
103         # ------------------------------
104         Perturbations = [ 10**i for i in xrange(self._parameters["EpsilonMinimumExponent"],1) ]
105         Perturbations.reverse()
106         #
107         # Calcul du point courant
108         # -----------------------
109         Xn      = numpy.asmatrix(numpy.ravel( Xb )).T
110         FX      = numpy.asmatrix(numpy.ravel( Hm( Xn ) )).T
111         NormeX  = numpy.linalg.norm( Xn )
112         NormeFX = numpy.linalg.norm( FX )
113         if "CurrentState" in self._parameters["StoreSupplementaryCalculations"]:
114             self.StoredVariables["CurrentState"].store( numpy.ravel(Xn) )
115         if "SimulatedObservationAtCurrentState" in self._parameters["StoreSupplementaryCalculations"]:
116             self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX) )
117         #
118         # Fabrication de la direction de  l'incrément dX
119         # ----------------------------------------------
120         if len(self._parameters["InitialDirection"]) == 0:
121             dX0 = []
122             for v in Xn.A1:
123                 if abs(v) > 1.e-8:
124                     dX0.append( numpy.random.normal(0.,abs(v)) )
125                 else:
126                     dX0.append( numpy.random.normal(0.,Xn.mean()) )
127         else:
128             dX0 = numpy.ravel( self._parameters["InitialDirection"] )
129         #
130         dX0 = float(self._parameters["AmplitudeOfInitialDirection"]) * numpy.matrix( dX0 ).T
131         #
132         # Calcul du gradient au point courant X pour l'incrément dX
133         # ---------------------------------------------------------
134         if self._parameters["ResiduFormula"] in ["Taylor", "NominalTaylor", "NominalTaylorRMS"]:
135             dX1      = float(self._parameters["AmplitudeOfTangentPerturbation"]) * dX0
136             GradFxdX = Ht( (Xn, dX1) )
137             GradFxdX = numpy.asmatrix(numpy.ravel( GradFxdX )).T
138             GradFxdX = float(1./self._parameters["AmplitudeOfTangentPerturbation"]) * GradFxdX
139         #
140         # Entete des resultats
141         # --------------------
142         __marge =  12*" "
143         if self._parameters["ResiduFormula"] == "CenteredDL":
144             __entete = "  i   Alpha     ||X||      ||F(X)||   |   R(Alpha)  log10( R )  "
145             __msgdoc = """
146             On observe le résidu provenant de la différence centrée des valeurs de F
147             au point nominal et aux points perturbés, normalisée par la valeur au
148             point nominal :
149
150                          || F(X+Alpha*dX) + F(X-Alpha*dX) - 2*F(X) ||
151               R(Alpha) = --------------------------------------------
152                                          || F(X) ||
153
154             S'il reste constamment trés faible par rapport à 1, l'hypothèse de linéarité
155             de F est vérifiée.
156
157             Si le résidu varie, ou qu'il est de l'ordre de 1 ou plus, et qu'il n'est
158             faible qu'à partir d'un certain ordre d'incrément, l'hypothèse de linéarité
159             de F n'est pas vérifiée.
160
161             Si le résidu décroit et que la décroissance se fait en Alpha**2 selon Alpha,
162             cela signifie que le gradient est calculable jusqu'à la précision d'arrêt
163             de la décroissance quadratique.
164
165             On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
166             """
167         if self._parameters["ResiduFormula"] == "Taylor":
168             __entete = "  i   Alpha     ||X||      ||F(X)||   |   R(Alpha)  log10( R )  "
169             __msgdoc = """
170             On observe le résidu issu du développement de Taylor de la fonction F,
171             normalisée par la valeur au point nominal :
172
173                          || F(X+Alpha*dX) - F(X) - Alpha * GradientF_X(dX) ||
174               R(Alpha) = ----------------------------------------------------
175                                          || F(X) ||
176
177             S'il reste constamment trés faible par rapport à 1, l'hypothèse de linéarité
178             de F est vérifiée.
179
180             Si le résidu varie, ou qu'il est de l'ordre de 1 ou plus, et qu'il n'est
181             faible qu'à partir d'un certain ordre d'incrément, l'hypothèse de linéarité
182             de F n'est pas vérifiée.
183
184             Si le résidu décroit et que la décroissance se fait en Alpha**2 selon Alpha,
185             cela signifie que le gradient est bien calculé jusqu'à la précision d'arrêt
186             de la décroissance quadratique.
187
188             On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
189             """
190         if self._parameters["ResiduFormula"] == "NominalTaylor":
191             __entete = "  i   Alpha     ||X||      ||F(X)||   |   R(Alpha)   |R-1| en %  "
192             __msgdoc = """
193             On observe le résidu obtenu à partir de deux approximations d'ordre 1 de F(X),
194             normalisées par la valeur au point nominal :
195
196               R(Alpha) = max(
197                 || F(X+Alpha*dX) - Alpha * F(dX) || / || F(X) ||,
198                 || F(X-Alpha*dX) + Alpha * F(dX) || / || F(X) ||,
199               )
200
201             S'il reste constamment égal à 1 à moins de 2 ou 3 pourcents prés (c'est-à-dire
202             que |R-1| reste égal à 2 ou 3 pourcents), c'est que l'hypothèse de linéarité
203             de F est vérifiée.
204
205             S'il est égal à 1 sur une partie seulement du domaine de variation de
206             l'incrément Alpha, c'est sur cette partie que l'hypothèse de linéarité de F
207             est vérifiée.
208
209             On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
210             """
211         if self._parameters["ResiduFormula"] == "NominalTaylorRMS":
212             __entete = "  i   Alpha     ||X||      ||F(X)||   |   R(Alpha)    |R| en %  "
213             __msgdoc = """
214             On observe le résidu obtenu à partir de deux approximations d'ordre 1 de F(X),
215             normalisées par la valeur au point nominal :
216
217               R(Alpha) = max(
218                 RMS( F(X), F(X+Alpha*dX) - Alpha * F(dX) ) / || F(X) ||,
219                 RMS( F(X), F(X-Alpha*dX) + Alpha * F(dX) ) / || F(X) ||,
220               )
221
222             S'il reste constamment égal à 0 à moins de 1 ou 2 pourcents prés, c'est
223             que l'hypothèse de linéarité de F est vérifiée.
224
225             S'il est égal à 0 sur une partie seulement du domaine de variation de
226             l'incrément Alpha, c'est sur cette partie que l'hypothèse de linéarité de F
227             est vérifiée.
228
229             On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
230             """
231         #
232         if len(self._parameters["ResultTitle"]) > 0:
233             msgs  = "\n"
234             msgs += __marge + "====" + "="*len(self._parameters["ResultTitle"]) + "====\n"
235             msgs += __marge + "    " + self._parameters["ResultTitle"] + "\n"
236             msgs += __marge + "====" + "="*len(self._parameters["ResultTitle"]) + "====\n"
237         else:
238             msgs  = ""
239         msgs += __msgdoc
240         #
241         __nbtirets = len(__entete)
242         msgs += "\n" + __marge + "-"*__nbtirets
243         msgs += "\n" + __marge + __entete
244         msgs += "\n" + __marge + "-"*__nbtirets
245         #
246         # Boucle sur les perturbations
247         # ----------------------------
248         for i,amplitude in enumerate(Perturbations):
249             dX      = amplitude * dX0
250             #
251             if self._parameters["ResiduFormula"] == "CenteredDL":
252                 if "CurrentState" in self._parameters["StoreSupplementaryCalculations"]:
253                     self.StoredVariables["CurrentState"].store( numpy.ravel(Xn + dX) )
254                     self.StoredVariables["CurrentState"].store( numpy.ravel(Xn - dX) )
255                 #
256                 FX_plus_dX  = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
257                 FX_moins_dX = numpy.asmatrix(numpy.ravel( Hm( Xn - dX ) )).T
258                 #
259                 if "SimulatedObservationAtCurrentState" in self._parameters["StoreSupplementaryCalculations"]:
260                     self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_plus_dX) )
261                     self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_moins_dX) )
262                 #
263                 Residu = numpy.linalg.norm( FX_plus_dX + FX_moins_dX - 2 * FX ) / NormeFX
264                 #
265                 self.StoredVariables["Residu"].store( Residu )
266                 msg = "  %2i  %5.0e   %9.3e   %9.3e   |   %9.3e   %4.0f"%(i,amplitude,NormeX,NormeFX,Residu,math.log10(max(1.e-99,Residu)))
267                 msgs += "\n" + __marge + msg
268             #
269             if self._parameters["ResiduFormula"] == "Taylor":
270                 if "CurrentState" in self._parameters["StoreSupplementaryCalculations"]:
271                     self.StoredVariables["CurrentState"].store( numpy.ravel(Xn + dX) )
272                 #
273                 FX_plus_dX  = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
274                 #
275                 if "SimulatedObservationAtCurrentState" in self._parameters["StoreSupplementaryCalculations"]:
276                     self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_plus_dX) )
277                 #
278                 Residu = numpy.linalg.norm( FX_plus_dX - FX - amplitude * GradFxdX ) / NormeFX
279                 #
280                 self.StoredVariables["Residu"].store( Residu )
281                 msg = "  %2i  %5.0e   %9.3e   %9.3e   |   %9.3e   %4.0f"%(i,amplitude,NormeX,NormeFX,Residu,math.log10(max(1.e-99,Residu)))
282                 msgs += "\n" + __marge + msg
283             #
284             if self._parameters["ResiduFormula"] == "NominalTaylor":
285                 if "CurrentState" in self._parameters["StoreSupplementaryCalculations"]:
286                     self.StoredVariables["CurrentState"].store( numpy.ravel(Xn + dX) )
287                     self.StoredVariables["CurrentState"].store( numpy.ravel(Xn - dX) )
288                     self.StoredVariables["CurrentState"].store( numpy.ravel(dX) )
289                 #
290                 FX_plus_dX  = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
291                 FX_moins_dX = numpy.asmatrix(numpy.ravel( Hm( Xn - dX ) )).T
292                 FdX         = numpy.asmatrix(numpy.ravel( Hm( dX ) )).T
293                 #
294                 if "SimulatedObservationAtCurrentState" in self._parameters["StoreSupplementaryCalculations"]:
295                     self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_plus_dX) )
296                     self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_moins_dX) )
297                     self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FdX) )
298                 #
299                 Residu = max(
300                     numpy.linalg.norm( FX_plus_dX  - amplitude * FdX ) / NormeFX,
301                     numpy.linalg.norm( FX_moins_dX + amplitude * FdX ) / NormeFX,
302                     )
303                 #
304                 self.StoredVariables["Residu"].store( Residu )
305                 msg = "  %2i  %5.0e   %9.3e   %9.3e   |   %9.3e   %5i %s"%(i,amplitude,NormeX,NormeFX,Residu,100.*abs(Residu-1.),"%")
306                 msgs += "\n" + __marge + msg
307             #
308             if self._parameters["ResiduFormula"] == "NominalTaylorRMS":
309                 if "CurrentState" in self._parameters["StoreSupplementaryCalculations"]:
310                     self.StoredVariables["CurrentState"].store( numpy.ravel(Xn + dX) )
311                     self.StoredVariables["CurrentState"].store( numpy.ravel(Xn - dX) )
312                     self.StoredVariables["CurrentState"].store( numpy.ravel(dX) )
313                 #
314                 FX_plus_dX  = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
315                 FX_moins_dX = numpy.asmatrix(numpy.ravel( Hm( Xn - dX ) )).T
316                 FdX         = numpy.asmatrix(numpy.ravel( Hm( dX ) )).T
317                 #
318                 if "SimulatedObservationAtCurrentState" in self._parameters["StoreSupplementaryCalculations"]:
319                     self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_plus_dX) )
320                     self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_moins_dX) )
321                     self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FdX) )
322                 #
323                 Residu = max(
324                     RMS( FX, FX_plus_dX   - amplitude * FdX ) / NormeFX,
325                     RMS( FX, FX_moins_dX  + amplitude * FdX ) / NormeFX,
326                     )
327                 #
328                 self.StoredVariables["Residu"].store( Residu )
329                 msg = "  %2i  %5.0e   %9.3e   %9.3e   |   %9.3e   %5i %s"%(i,amplitude,NormeX,NormeFX,Residu,100.*Residu,"%")
330                 msgs += "\n" + __marge + msg
331         #
332         msgs += "\n" + __marge + "-"*__nbtirets
333         msgs += "\n"
334         #
335         # Sorties eventuelles
336         # -------------------
337         print
338         print "Results of linearity check by \"%s\" formula:"%self._parameters["ResiduFormula"]
339         print msgs
340         #
341         self._post_run(HO)
342         return 0
343
344 # ==============================================================================
345 if __name__ == "__main__":
346     print '\n AUTODIAGNOSTIC \n'