Salome HOME
Updating version and copyright date information
[modules/adao.git] / src / daComposant / daAlgorithms / LinearityTest.py
1 # -*- coding: utf-8 -*-
2 #
3 # Copyright (C) 2008-2021 EDF R&D
4 #
5 # This library is free software; you can redistribute it and/or
6 # modify it under the terms of the GNU Lesser General Public
7 # License as published by the Free Software Foundation; either
8 # version 2.1 of the License.
9 #
10 # This library is distributed in the hope that it will be useful,
11 # but WITHOUT ANY WARRANTY; without even the implied warranty of
12 # MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13 # Lesser General Public License for more details.
14 #
15 # You should have received a copy of the GNU Lesser General Public
16 # License along with this library; if not, write to the Free Software
17 # Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
18 #
19 # See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
20 #
21 # Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
22
23 import sys, logging
24 from daCore import BasicObjects, PlatformInfo
25 import numpy, math
26 mpr = PlatformInfo.PlatformInfo().MachinePrecision()
27 if sys.version_info.major > 2:
28     unicode = str
29
30 # ==============================================================================
31 class ElementaryAlgorithm(BasicObjects.Algorithm):
32     def __init__(self):
33         BasicObjects.Algorithm.__init__(self, "LINEARITYTEST")
34         self.defineRequiredParameter(
35             name     = "ResiduFormula",
36             default  = "CenteredDL",
37             typecast = str,
38             message  = "Formule de résidu utilisée",
39             listval  = ["CenteredDL", "Taylor", "NominalTaylor", "NominalTaylorRMS"],
40             )
41         self.defineRequiredParameter(
42             name     = "EpsilonMinimumExponent",
43             default  = -8,
44             typecast = int,
45             message  = "Exposant minimal en puissance de 10 pour le multiplicateur d'incrément",
46             minval   = -20,
47             maxval   = 0,
48             )
49         self.defineRequiredParameter(
50             name     = "InitialDirection",
51             default  = [],
52             typecast = list,
53             message  = "Direction initiale de la dérivée directionnelle autour du point nominal",
54             )
55         self.defineRequiredParameter(
56             name     = "AmplitudeOfInitialDirection",
57             default  = 1.,
58             typecast = float,
59             message  = "Amplitude de la direction initiale de la dérivée directionnelle autour du point nominal",
60             )
61         self.defineRequiredParameter(
62             name     = "AmplitudeOfTangentPerturbation",
63             default  = 1.e-2,
64             typecast = float,
65             message  = "Amplitude de la perturbation pour le calcul de la forme tangente",
66             minval   = 1.e-10,
67             maxval   = 1.,
68             )
69         self.defineRequiredParameter(
70             name     = "SetSeed",
71             typecast = numpy.random.seed,
72             message  = "Graine fixée pour le générateur aléatoire",
73             )
74         self.defineRequiredParameter(
75             name     = "ResultTitle",
76             default  = "",
77             typecast = str,
78             message  = "Titre du tableau et de la figure",
79             )
80         self.defineRequiredParameter(
81             name     = "StoreSupplementaryCalculations",
82             default  = [],
83             typecast = tuple,
84             message  = "Liste de calculs supplémentaires à stocker et/ou effectuer",
85             listval  = [
86                 "CurrentState",
87                 "Residu",
88                 "SimulatedObservationAtCurrentState",
89                 ]
90             )
91         self.requireInputArguments(
92             mandatory= ("Xb", "HO"),
93             )
94         self.setAttributes(tags=(
95             "Checking",
96             ))
97
98     def run(self, Xb=None, Y=None, U=None, HO=None, EM=None, CM=None, R=None, B=None, Q=None, Parameters=None):
99         self._pre_run(Parameters, Xb, Y, U, HO, EM, CM, R, B, Q)
100         #
101         def RMS(V1, V2):
102             import math
103             return math.sqrt( ((numpy.ravel(V2) - numpy.ravel(V1))**2).sum() / float(numpy.ravel(V1).size) )
104         #
105         # Operateurs
106         # ----------
107         Hm = HO["Direct"].appliedTo
108         if self._parameters["ResiduFormula"] in ["Taylor", "NominalTaylor", "NominalTaylorRMS"]:
109             Ht = HO["Tangent"].appliedInXTo
110         #
111         # Construction des perturbations
112         # ------------------------------
113         Perturbations = [ 10**i for i in range(self._parameters["EpsilonMinimumExponent"],1) ]
114         Perturbations.reverse()
115         #
116         # Calcul du point courant
117         # -----------------------
118         Xn      = numpy.asmatrix(numpy.ravel( Xb )).T
119         FX      = numpy.asmatrix(numpy.ravel( Hm( Xn ) )).T
120         NormeX  = numpy.linalg.norm( Xn )
121         NormeFX = numpy.linalg.norm( FX )
122         if self._toStore("CurrentState"):
123             self.StoredVariables["CurrentState"].store( numpy.ravel(Xn) )
124         if self._toStore("SimulatedObservationAtCurrentState"):
125             self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX) )
126         #
127         # Fabrication de la direction de l'increment dX
128         # ---------------------------------------------
129         if len(self._parameters["InitialDirection"]) == 0:
130             dX0 = []
131             for v in Xn.A1:
132                 if abs(v) > 1.e-8:
133                     dX0.append( numpy.random.normal(0.,abs(v)) )
134                 else:
135                     dX0.append( numpy.random.normal(0.,Xn.mean()) )
136         else:
137             dX0 = numpy.ravel( self._parameters["InitialDirection"] )
138         #
139         dX0 = float(self._parameters["AmplitudeOfInitialDirection"]) * numpy.matrix( dX0 ).T
140         #
141         # Calcul du gradient au point courant X pour l'increment dX
142         # ---------------------------------------------------------
143         if self._parameters["ResiduFormula"] in ["Taylor", "NominalTaylor", "NominalTaylorRMS"]:
144             dX1      = float(self._parameters["AmplitudeOfTangentPerturbation"]) * dX0
145             GradFxdX = Ht( (Xn, dX1) )
146             GradFxdX = numpy.asmatrix(numpy.ravel( GradFxdX )).T
147             GradFxdX = float(1./self._parameters["AmplitudeOfTangentPerturbation"]) * GradFxdX
148         #
149         # Entete des resultats
150         # --------------------
151         __marge =  12*u" "
152         __precision = u"""
153             Remarque : les nombres inferieurs a %.0e (environ) representent un zero
154                        a la precision machine.\n"""%mpr
155         if self._parameters["ResiduFormula"] == "CenteredDL":
156             __entete = u"  i   Alpha     ||X||      ||F(X)||   |   R(Alpha)  log10( R )"
157             __msgdoc = u"""
158             On observe le residu provenant de la difference centree des valeurs de F
159             au point nominal et aux points perturbes, normalisee par la valeur au
160             point nominal :
161
162                          || F(X+Alpha*dX) + F(X-Alpha*dX) - 2*F(X) ||
163               R(Alpha) = --------------------------------------------
164                                          || F(X) ||
165
166             S'il reste constamment tres faible par rapport a 1, l'hypothese de linearite
167             de F est verifiee.
168
169             Si le residu varie, ou qu'il est de l'ordre de 1 ou plus, et qu'il n'est
170             faible qu'a partir d'un certain ordre d'increment, l'hypothese de linearite
171             de F n'est pas verifiee.
172
173             Si le residu decroit et que la decroissance se fait en Alpha**2 selon Alpha,
174             cela signifie que le gradient est calculable jusqu'a la precision d'arret
175             de la decroissance quadratique.
176
177             On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.\n""" + __precision
178         if self._parameters["ResiduFormula"] == "Taylor":
179             __entete = u"  i   Alpha     ||X||      ||F(X)||   |   R(Alpha)  log10( R )"
180             __msgdoc = u"""
181             On observe le residu issu du developpement de Taylor de la fonction F,
182             normalisee par la valeur au point nominal :
183
184                          || F(X+Alpha*dX) - F(X) - Alpha * GradientF_X(dX) ||
185               R(Alpha) = ----------------------------------------------------
186                                          || F(X) ||
187
188             S'il reste constamment tres faible par rapport a 1, l'hypothese de linearite
189             de F est verifiee.
190
191             Si le residu varie, ou qu'il est de l'ordre de 1 ou plus, et qu'il n'est
192             faible qu'a partir d'un certain ordre d'increment, l'hypothese de linearite
193             de F n'est pas verifiee.
194
195             Si le residu decroit et que la decroissance se fait en Alpha**2 selon Alpha,
196             cela signifie que le gradient est bien calcule jusqu'a la precision d'arret
197             de la decroissance quadratique.
198
199             On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.\n""" + __precision
200         if self._parameters["ResiduFormula"] == "NominalTaylor":
201             __entete = u"  i   Alpha     ||X||      ||F(X)||   |   R(Alpha)   |R-1| en %"
202             __msgdoc = u"""
203             On observe le residu obtenu a partir de deux approximations d'ordre 1 de F(X),
204             normalisees par la valeur au point nominal :
205
206               R(Alpha) = max(
207                 || F(X+Alpha*dX) - Alpha * F(dX) || / || F(X) ||,
208                 || F(X-Alpha*dX) + Alpha * F(dX) || / || F(X) ||,
209               )
210
211             S'il reste constamment egal a 1 a moins de 2 ou 3 pourcents pres (c'est-a-dire
212             que |R-1| reste egal a 2 ou 3 pourcents), c'est que l'hypothese de linearite
213             de F est verifiee.
214
215             S'il est egal a 1 sur une partie seulement du domaine de variation de
216             l'increment Alpha, c'est sur cette partie que l'hypothese de linearite de F
217             est verifiee.
218
219             On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.\n""" + __precision
220         if self._parameters["ResiduFormula"] == "NominalTaylorRMS":
221             __entete = u"  i   Alpha     ||X||      ||F(X)||   |   R(Alpha)    |R| en %"
222             __msgdoc = u"""
223             On observe le residu obtenu a partir de deux approximations d'ordre 1 de F(X),
224             normalisees par la valeur au point nominal :
225
226               R(Alpha) = max(
227                 RMS( F(X), F(X+Alpha*dX) - Alpha * F(dX) ) / || F(X) ||,
228                 RMS( F(X), F(X-Alpha*dX) + Alpha * F(dX) ) / || F(X) ||,
229               )
230
231             S'il reste constamment egal a 0 a moins de 1 ou 2 pourcents pres, c'est
232             que l'hypothese de linearite de F est verifiee.
233
234             S'il est egal a 0 sur une partie seulement du domaine de variation de
235             l'increment Alpha, c'est sur cette partie que l'hypothese de linearite de F
236             est verifiee.
237
238             On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.\n""" + __precision
239         #
240         if len(self._parameters["ResultTitle"]) > 0:
241             __rt = unicode(self._parameters["ResultTitle"])
242             msgs  = u"\n"
243             msgs += __marge + "====" + "="*len(__rt) + "====\n"
244             msgs += __marge + "    " + __rt + "\n"
245             msgs += __marge + "====" + "="*len(__rt) + "====\n"
246         else:
247             msgs  = u""
248         msgs += __msgdoc
249         #
250         __nbtirets = len(__entete) + 2
251         msgs += "\n" + __marge + "-"*__nbtirets
252         msgs += "\n" + __marge + __entete
253         msgs += "\n" + __marge + "-"*__nbtirets
254         #
255         # Boucle sur les perturbations
256         # ----------------------------
257         for i,amplitude in enumerate(Perturbations):
258             dX      = amplitude * dX0
259             #
260             if self._parameters["ResiduFormula"] == "CenteredDL":
261                 if self._toStore("CurrentState"):
262                     self.StoredVariables["CurrentState"].store( numpy.ravel(Xn + dX) )
263                     self.StoredVariables["CurrentState"].store( numpy.ravel(Xn - dX) )
264                 #
265                 FX_plus_dX  = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
266                 FX_moins_dX = numpy.asmatrix(numpy.ravel( Hm( Xn - dX ) )).T
267                 #
268                 if self._toStore("SimulatedObservationAtCurrentState"):
269                     self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_plus_dX) )
270                     self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_moins_dX) )
271                 #
272                 Residu = numpy.linalg.norm( FX_plus_dX + FX_moins_dX - 2 * FX ) / NormeFX
273                 #
274                 self.StoredVariables["Residu"].store( Residu )
275                 msg = "  %2i  %5.0e   %9.3e   %9.3e   |   %9.3e   %4.0f"%(i,amplitude,NormeX,NormeFX,Residu,math.log10(max(1.e-99,Residu)))
276                 msgs += "\n" + __marge + msg
277             #
278             if self._parameters["ResiduFormula"] == "Taylor":
279                 if self._toStore("CurrentState"):
280                     self.StoredVariables["CurrentState"].store( numpy.ravel(Xn + dX) )
281                 #
282                 FX_plus_dX  = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
283                 #
284                 if self._toStore("SimulatedObservationAtCurrentState"):
285                     self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_plus_dX) )
286                 #
287                 Residu = numpy.linalg.norm( FX_plus_dX - FX - amplitude * GradFxdX ) / NormeFX
288                 #
289                 self.StoredVariables["Residu"].store( Residu )
290                 msg = "  %2i  %5.0e   %9.3e   %9.3e   |   %9.3e   %4.0f"%(i,amplitude,NormeX,NormeFX,Residu,math.log10(max(1.e-99,Residu)))
291                 msgs += "\n" + __marge + msg
292             #
293             if self._parameters["ResiduFormula"] == "NominalTaylor":
294                 if self._toStore("CurrentState"):
295                     self.StoredVariables["CurrentState"].store( numpy.ravel(Xn + dX) )
296                     self.StoredVariables["CurrentState"].store( numpy.ravel(Xn - dX) )
297                     self.StoredVariables["CurrentState"].store( numpy.ravel(dX) )
298                 #
299                 FX_plus_dX  = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
300                 FX_moins_dX = numpy.asmatrix(numpy.ravel( Hm( Xn - dX ) )).T
301                 FdX         = numpy.asmatrix(numpy.ravel( Hm( dX ) )).T
302                 #
303                 if self._toStore("SimulatedObservationAtCurrentState"):
304                     self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_plus_dX) )
305                     self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_moins_dX) )
306                     self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FdX) )
307                 #
308                 Residu = max(
309                     numpy.linalg.norm( FX_plus_dX  - amplitude * FdX ) / NormeFX,
310                     numpy.linalg.norm( FX_moins_dX + amplitude * FdX ) / NormeFX,
311                     )
312                 #
313                 self.StoredVariables["Residu"].store( Residu )
314                 msg = "  %2i  %5.0e   %9.3e   %9.3e   |   %9.3e   %5i %s"%(i,amplitude,NormeX,NormeFX,Residu,100.*abs(Residu-1.),"%")
315                 msgs += "\n" + __marge + msg
316             #
317             if self._parameters["ResiduFormula"] == "NominalTaylorRMS":
318                 if self._toStore("CurrentState"):
319                     self.StoredVariables["CurrentState"].store( numpy.ravel(Xn + dX) )
320                     self.StoredVariables["CurrentState"].store( numpy.ravel(Xn - dX) )
321                     self.StoredVariables["CurrentState"].store( numpy.ravel(dX) )
322                 #
323                 FX_plus_dX  = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
324                 FX_moins_dX = numpy.asmatrix(numpy.ravel( Hm( Xn - dX ) )).T
325                 FdX         = numpy.asmatrix(numpy.ravel( Hm( dX ) )).T
326                 #
327                 if self._toStore("SimulatedObservationAtCurrentState"):
328                     self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_plus_dX) )
329                     self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_moins_dX) )
330                     self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FdX) )
331                 #
332                 Residu = max(
333                     RMS( FX, FX_plus_dX   - amplitude * FdX ) / NormeFX,
334                     RMS( FX, FX_moins_dX  + amplitude * FdX ) / NormeFX,
335                     )
336                 #
337                 self.StoredVariables["Residu"].store( Residu )
338                 msg = "  %2i  %5.0e   %9.3e   %9.3e   |   %9.3e   %5i %s"%(i,amplitude,NormeX,NormeFX,Residu,100.*Residu,"%")
339                 msgs += "\n" + __marge + msg
340         #
341         msgs += "\n" + __marge + "-"*__nbtirets
342         msgs += "\n"
343         #
344         # Sorties eventuelles
345         # -------------------
346         print("\nResults of linearity check by \"%s\" formula:"%self._parameters["ResiduFormula"])
347         print(msgs)
348         #
349         self._post_run(HO)
350         return 0
351
352 # ==============================================================================
353 if __name__ == "__main__":
354     print('\n AUTODIAGNOSTIC\n')