Salome HOME
Adding calculation precision information
[modules/adao.git] / src / daComposant / daAlgorithms / LinearityTest.py
1 #-*-coding:iso-8859-1-*-
2 #
3 # Copyright (C) 2008-2017 EDF R&D
4 #
5 # This library is free software; you can redistribute it and/or
6 # modify it under the terms of the GNU Lesser General Public
7 # License as published by the Free Software Foundation; either
8 # version 2.1 of the License.
9 #
10 # This library is distributed in the hope that it will be useful,
11 # but WITHOUT ANY WARRANTY; without even the implied warranty of
12 # MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13 # Lesser General Public License for more details.
14 #
15 # You should have received a copy of the GNU Lesser General Public
16 # License along with this library; if not, write to the Free Software
17 # Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
18 #
19 # See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
20 #
21 # Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
22
23 import logging
24 from daCore import BasicObjects, PlatformInfo
25 import numpy, math
26 mpr = PlatformInfo.PlatformInfo().MachinePrecision()
27
28 # ==============================================================================
29 class ElementaryAlgorithm(BasicObjects.Algorithm):
30     def __init__(self):
31         BasicObjects.Algorithm.__init__(self, "LINEARITYTEST")
32         self.defineRequiredParameter(
33             name     = "ResiduFormula",
34             default  = "CenteredDL",
35             typecast = str,
36             message  = "Formule de résidu utilisée",
37             listval  = ["CenteredDL", "Taylor", "NominalTaylor", "NominalTaylorRMS"],
38             )
39         self.defineRequiredParameter(
40             name     = "EpsilonMinimumExponent",
41             default  = -8,
42             typecast = int,
43             message  = "Exposant minimal en puissance de 10 pour le multiplicateur d'incrément",
44             minval   = -20,
45             maxval   = 0,
46             )
47         self.defineRequiredParameter(
48             name     = "InitialDirection",
49             default  = [],
50             typecast = list,
51             message  = "Direction initiale de la dérivée directionnelle autour du point nominal",
52             )
53         self.defineRequiredParameter(
54             name     = "AmplitudeOfInitialDirection",
55             default  = 1.,
56             typecast = float,
57             message  = "Amplitude de la direction initiale de la dérivée directionnelle autour du point nominal",
58             )
59         self.defineRequiredParameter(
60             name     = "AmplitudeOfTangentPerturbation",
61             default  = 1.e-2,
62             typecast = float,
63             message  = "Amplitude de la perturbation pour le calcul de la forme tangente",
64             minval   = 1.e-10,
65             maxval   = 1.,
66             )
67         self.defineRequiredParameter(
68             name     = "SetSeed",
69             typecast = numpy.random.seed,
70             message  = "Graine fixée pour le générateur aléatoire",
71             )
72         self.defineRequiredParameter(
73             name     = "ResultTitle",
74             default  = "",
75             typecast = str,
76             message  = "Titre du tableau et de la figure",
77             )
78         self.defineRequiredParameter(
79             name     = "StoreSupplementaryCalculations",
80             default  = [],
81             typecast = tuple,
82             message  = "Liste de calculs supplémentaires à stocker et/ou effectuer",
83             listval  = ["CurrentState", "Residu", "SimulatedObservationAtCurrentState"]
84             )
85
86     def run(self, Xb=None, Y=None, U=None, HO=None, EM=None, CM=None, R=None, B=None, Q=None, Parameters=None):
87         self._pre_run()
88         #
89         # Paramètres de pilotage
90         # ----------------------
91         self.setParameters(Parameters)
92         #
93         def RMS(V1, V2):
94             import math
95             return math.sqrt( ((numpy.ravel(V2) - numpy.ravel(V1))**2).sum() / float(numpy.ravel(V1).size) )
96         #
97         # Opérateurs
98         # ----------
99         Hm = HO["Direct"].appliedTo
100         if self._parameters["ResiduFormula"] in ["Taylor", "NominalTaylor", "NominalTaylorRMS"]:
101             Ht = HO["Tangent"].appliedInXTo
102         #
103         # Construction des perturbations
104         # ------------------------------
105         Perturbations = [ 10**i for i in xrange(self._parameters["EpsilonMinimumExponent"],1) ]
106         Perturbations.reverse()
107         #
108         # Calcul du point courant
109         # -----------------------
110         Xn      = numpy.asmatrix(numpy.ravel( Xb )).T
111         FX      = numpy.asmatrix(numpy.ravel( Hm( Xn ) )).T
112         NormeX  = numpy.linalg.norm( Xn )
113         NormeFX = numpy.linalg.norm( FX )
114         if "CurrentState" in self._parameters["StoreSupplementaryCalculations"]:
115             self.StoredVariables["CurrentState"].store( numpy.ravel(Xn) )
116         if "SimulatedObservationAtCurrentState" in self._parameters["StoreSupplementaryCalculations"]:
117             self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX) )
118         #
119         # Fabrication de la direction de  l'incrément dX
120         # ----------------------------------------------
121         if len(self._parameters["InitialDirection"]) == 0:
122             dX0 = []
123             for v in Xn.A1:
124                 if abs(v) > 1.e-8:
125                     dX0.append( numpy.random.normal(0.,abs(v)) )
126                 else:
127                     dX0.append( numpy.random.normal(0.,Xn.mean()) )
128         else:
129             dX0 = numpy.ravel( self._parameters["InitialDirection"] )
130         #
131         dX0 = float(self._parameters["AmplitudeOfInitialDirection"]) * numpy.matrix( dX0 ).T
132         #
133         # Calcul du gradient au point courant X pour l'incrément dX
134         # ---------------------------------------------------------
135         if self._parameters["ResiduFormula"] in ["Taylor", "NominalTaylor", "NominalTaylorRMS"]:
136             dX1      = float(self._parameters["AmplitudeOfTangentPerturbation"]) * dX0
137             GradFxdX = Ht( (Xn, dX1) )
138             GradFxdX = numpy.asmatrix(numpy.ravel( GradFxdX )).T
139             GradFxdX = float(1./self._parameters["AmplitudeOfTangentPerturbation"]) * GradFxdX
140         #
141         # Entete des resultats
142         # --------------------
143         __marge =  12*" "
144         __precision = """
145             Remarque : les nombres inferieurs a %.0e (environ) representent un zero
146                        a la precision machine.\n"""%mpr
147         if self._parameters["ResiduFormula"] == "CenteredDL":
148             __entete = "  i   Alpha     ||X||      ||F(X)||   |   R(Alpha)  log10( R )  "
149             __msgdoc = """
150             On observe le résidu provenant de la différence centrée des valeurs de F
151             au point nominal et aux points perturbés, normalisée par la valeur au
152             point nominal :
153
154                          || F(X+Alpha*dX) + F(X-Alpha*dX) - 2*F(X) ||
155               R(Alpha) = --------------------------------------------
156                                          || F(X) ||
157
158             S'il reste constamment trés faible par rapport à 1, l'hypothèse de linéarité
159             de F est vérifiée.
160
161             Si le résidu varie, ou qu'il est de l'ordre de 1 ou plus, et qu'il n'est
162             faible qu'à partir d'un certain ordre d'incrément, l'hypothèse de linéarité
163             de F n'est pas vérifiée.
164
165             Si le résidu décroit et que la décroissance se fait en Alpha**2 selon Alpha,
166             cela signifie que le gradient est calculable jusqu'à la précision d'arrêt
167             de la décroissance quadratique.
168
169             On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
170             """ + __precision
171         if self._parameters["ResiduFormula"] == "Taylor":
172             __entete = "  i   Alpha     ||X||      ||F(X)||   |   R(Alpha)  log10( R )  "
173             __msgdoc = """
174             On observe le résidu issu du développement de Taylor de la fonction F,
175             normalisée par la valeur au point nominal :
176
177                          || F(X+Alpha*dX) - F(X) - Alpha * GradientF_X(dX) ||
178               R(Alpha) = ----------------------------------------------------
179                                          || F(X) ||
180
181             S'il reste constamment trés faible par rapport à 1, l'hypothèse de linéarité
182             de F est vérifiée.
183
184             Si le résidu varie, ou qu'il est de l'ordre de 1 ou plus, et qu'il n'est
185             faible qu'à partir d'un certain ordre d'incrément, l'hypothèse de linéarité
186             de F n'est pas vérifiée.
187
188             Si le résidu décroit et que la décroissance se fait en Alpha**2 selon Alpha,
189             cela signifie que le gradient est bien calculé jusqu'à la précision d'arrêt
190             de la décroissance quadratique.
191
192             On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
193             """ + __precision
194         if self._parameters["ResiduFormula"] == "NominalTaylor":
195             __entete = "  i   Alpha     ||X||      ||F(X)||   |   R(Alpha)   |R-1| en %  "
196             __msgdoc = """
197             On observe le résidu obtenu à partir de deux approximations d'ordre 1 de F(X),
198             normalisées par la valeur au point nominal :
199
200               R(Alpha) = max(
201                 || F(X+Alpha*dX) - Alpha * F(dX) || / || F(X) ||,
202                 || F(X-Alpha*dX) + Alpha * F(dX) || / || F(X) ||,
203               )
204
205             S'il reste constamment égal à 1 à moins de 2 ou 3 pourcents prés (c'est-à-dire
206             que |R-1| reste égal à 2 ou 3 pourcents), c'est que l'hypothèse de linéarité
207             de F est vérifiée.
208
209             S'il est égal à 1 sur une partie seulement du domaine de variation de
210             l'incrément Alpha, c'est sur cette partie que l'hypothèse de linéarité de F
211             est vérifiée.
212
213             On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
214             """ + __precision
215         if self._parameters["ResiduFormula"] == "NominalTaylorRMS":
216             __entete = "  i   Alpha     ||X||      ||F(X)||   |   R(Alpha)    |R| en %  "
217             __msgdoc = """
218             On observe le résidu obtenu à partir de deux approximations d'ordre 1 de F(X),
219             normalisées par la valeur au point nominal :
220
221               R(Alpha) = max(
222                 RMS( F(X), F(X+Alpha*dX) - Alpha * F(dX) ) / || F(X) ||,
223                 RMS( F(X), F(X-Alpha*dX) + Alpha * F(dX) ) / || F(X) ||,
224               )
225
226             S'il reste constamment égal à 0 à moins de 1 ou 2 pourcents prés, c'est
227             que l'hypothèse de linéarité de F est vérifiée.
228
229             S'il est égal à 0 sur une partie seulement du domaine de variation de
230             l'incrément Alpha, c'est sur cette partie que l'hypothèse de linéarité de F
231             est vérifiée.
232
233             On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
234             """ + __precision
235         #
236         if len(self._parameters["ResultTitle"]) > 0:
237             msgs  = "\n"
238             msgs += __marge + "====" + "="*len(self._parameters["ResultTitle"]) + "====\n"
239             msgs += __marge + "    " + self._parameters["ResultTitle"] + "\n"
240             msgs += __marge + "====" + "="*len(self._parameters["ResultTitle"]) + "====\n"
241         else:
242             msgs  = ""
243         msgs += __msgdoc
244         #
245         __nbtirets = len(__entete)
246         msgs += "\n" + __marge + "-"*__nbtirets
247         msgs += "\n" + __marge + __entete
248         msgs += "\n" + __marge + "-"*__nbtirets
249         #
250         # Boucle sur les perturbations
251         # ----------------------------
252         for i,amplitude in enumerate(Perturbations):
253             dX      = amplitude * dX0
254             #
255             if self._parameters["ResiduFormula"] == "CenteredDL":
256                 if "CurrentState" in self._parameters["StoreSupplementaryCalculations"]:
257                     self.StoredVariables["CurrentState"].store( numpy.ravel(Xn + dX) )
258                     self.StoredVariables["CurrentState"].store( numpy.ravel(Xn - dX) )
259                 #
260                 FX_plus_dX  = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
261                 FX_moins_dX = numpy.asmatrix(numpy.ravel( Hm( Xn - dX ) )).T
262                 #
263                 if "SimulatedObservationAtCurrentState" in self._parameters["StoreSupplementaryCalculations"]:
264                     self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_plus_dX) )
265                     self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_moins_dX) )
266                 #
267                 Residu = numpy.linalg.norm( FX_plus_dX + FX_moins_dX - 2 * FX ) / NormeFX
268                 #
269                 self.StoredVariables["Residu"].store( Residu )
270                 msg = "  %2i  %5.0e   %9.3e   %9.3e   |   %9.3e   %4.0f"%(i,amplitude,NormeX,NormeFX,Residu,math.log10(max(1.e-99,Residu)))
271                 msgs += "\n" + __marge + msg
272             #
273             if self._parameters["ResiduFormula"] == "Taylor":
274                 if "CurrentState" in self._parameters["StoreSupplementaryCalculations"]:
275                     self.StoredVariables["CurrentState"].store( numpy.ravel(Xn + dX) )
276                 #
277                 FX_plus_dX  = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
278                 #
279                 if "SimulatedObservationAtCurrentState" in self._parameters["StoreSupplementaryCalculations"]:
280                     self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_plus_dX) )
281                 #
282                 Residu = numpy.linalg.norm( FX_plus_dX - FX - amplitude * GradFxdX ) / NormeFX
283                 #
284                 self.StoredVariables["Residu"].store( Residu )
285                 msg = "  %2i  %5.0e   %9.3e   %9.3e   |   %9.3e   %4.0f"%(i,amplitude,NormeX,NormeFX,Residu,math.log10(max(1.e-99,Residu)))
286                 msgs += "\n" + __marge + msg
287             #
288             if self._parameters["ResiduFormula"] == "NominalTaylor":
289                 if "CurrentState" in self._parameters["StoreSupplementaryCalculations"]:
290                     self.StoredVariables["CurrentState"].store( numpy.ravel(Xn + dX) )
291                     self.StoredVariables["CurrentState"].store( numpy.ravel(Xn - dX) )
292                     self.StoredVariables["CurrentState"].store( numpy.ravel(dX) )
293                 #
294                 FX_plus_dX  = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
295                 FX_moins_dX = numpy.asmatrix(numpy.ravel( Hm( Xn - dX ) )).T
296                 FdX         = numpy.asmatrix(numpy.ravel( Hm( dX ) )).T
297                 #
298                 if "SimulatedObservationAtCurrentState" in self._parameters["StoreSupplementaryCalculations"]:
299                     self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_plus_dX) )
300                     self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_moins_dX) )
301                     self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FdX) )
302                 #
303                 Residu = max(
304                     numpy.linalg.norm( FX_plus_dX  - amplitude * FdX ) / NormeFX,
305                     numpy.linalg.norm( FX_moins_dX + amplitude * FdX ) / NormeFX,
306                     )
307                 #
308                 self.StoredVariables["Residu"].store( Residu )
309                 msg = "  %2i  %5.0e   %9.3e   %9.3e   |   %9.3e   %5i %s"%(i,amplitude,NormeX,NormeFX,Residu,100.*abs(Residu-1.),"%")
310                 msgs += "\n" + __marge + msg
311             #
312             if self._parameters["ResiduFormula"] == "NominalTaylorRMS":
313                 if "CurrentState" in self._parameters["StoreSupplementaryCalculations"]:
314                     self.StoredVariables["CurrentState"].store( numpy.ravel(Xn + dX) )
315                     self.StoredVariables["CurrentState"].store( numpy.ravel(Xn - dX) )
316                     self.StoredVariables["CurrentState"].store( numpy.ravel(dX) )
317                 #
318                 FX_plus_dX  = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
319                 FX_moins_dX = numpy.asmatrix(numpy.ravel( Hm( Xn - dX ) )).T
320                 FdX         = numpy.asmatrix(numpy.ravel( Hm( dX ) )).T
321                 #
322                 if "SimulatedObservationAtCurrentState" in self._parameters["StoreSupplementaryCalculations"]:
323                     self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_plus_dX) )
324                     self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_moins_dX) )
325                     self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FdX) )
326                 #
327                 Residu = max(
328                     RMS( FX, FX_plus_dX   - amplitude * FdX ) / NormeFX,
329                     RMS( FX, FX_moins_dX  + amplitude * FdX ) / NormeFX,
330                     )
331                 #
332                 self.StoredVariables["Residu"].store( Residu )
333                 msg = "  %2i  %5.0e   %9.3e   %9.3e   |   %9.3e   %5i %s"%(i,amplitude,NormeX,NormeFX,Residu,100.*Residu,"%")
334                 msgs += "\n" + __marge + msg
335         #
336         msgs += "\n" + __marge + "-"*__nbtirets
337         msgs += "\n"
338         #
339         # Sorties eventuelles
340         # -------------------
341         print
342         print "Results of linearity check by \"%s\" formula:"%self._parameters["ResiduFormula"]
343         print msgs
344         #
345         self._post_run(HO)
346         return 0
347
348 # ==============================================================================
349 if __name__ == "__main__":
350     print '\n AUTODIAGNOSTIC \n'