1 # -*- coding: utf-8 -*-
3 # Copyright (C) 2008-2018 EDF R&D
5 # This library is free software; you can redistribute it and/or
6 # modify it under the terms of the GNU Lesser General Public
7 # License as published by the Free Software Foundation; either
8 # version 2.1 of the License.
10 # This library is distributed in the hope that it will be useful,
11 # but WITHOUT ANY WARRANTY; without even the implied warranty of
12 # MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the GNU
13 # Lesser General Public License for more details.
15 # You should have received a copy of the GNU Lesser General Public
16 # License along with this library; if not, write to the Free Software
17 # Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
19 # See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
21 # Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
24 from daCore import BasicObjects, PlatformInfo
26 mpr = PlatformInfo.PlatformInfo().MachinePrecision()
27 if sys.version_info.major > 2:
30 # ==============================================================================
31 class ElementaryAlgorithm(BasicObjects.Algorithm):
33 BasicObjects.Algorithm.__init__(self, "LINEARITYTEST")
34 self.defineRequiredParameter(
35 name = "ResiduFormula",
36 default = "CenteredDL",
38 message = "Formule de résidu utilisée",
39 listval = ["CenteredDL", "Taylor", "NominalTaylor", "NominalTaylorRMS"],
41 self.defineRequiredParameter(
42 name = "EpsilonMinimumExponent",
45 message = "Exposant minimal en puissance de 10 pour le multiplicateur d'incrément",
49 self.defineRequiredParameter(
50 name = "InitialDirection",
53 message = "Direction initiale de la dérivée directionnelle autour du point nominal",
55 self.defineRequiredParameter(
56 name = "AmplitudeOfInitialDirection",
59 message = "Amplitude de la direction initiale de la dérivée directionnelle autour du point nominal",
61 self.defineRequiredParameter(
62 name = "AmplitudeOfTangentPerturbation",
65 message = "Amplitude de la perturbation pour le calcul de la forme tangente",
69 self.defineRequiredParameter(
71 typecast = numpy.random.seed,
72 message = "Graine fixée pour le générateur aléatoire",
74 self.defineRequiredParameter(
78 message = "Titre du tableau et de la figure",
80 self.defineRequiredParameter(
81 name = "StoreSupplementaryCalculations",
84 message = "Liste de calculs supplémentaires à stocker et/ou effectuer",
85 listval = ["CurrentState", "Residu", "SimulatedObservationAtCurrentState"]
87 self.requireInputArguments(
88 mandatory= ("Xb", "HO"),
91 def run(self, Xb=None, Y=None, U=None, HO=None, EM=None, CM=None, R=None, B=None, Q=None, Parameters=None):
92 self._pre_run(Parameters, Xb, Y, R, B, Q)
96 return math.sqrt( ((numpy.ravel(V2) - numpy.ravel(V1))**2).sum() / float(numpy.ravel(V1).size) )
100 Hm = HO["Direct"].appliedTo
101 if self._parameters["ResiduFormula"] in ["Taylor", "NominalTaylor", "NominalTaylorRMS"]:
102 Ht = HO["Tangent"].appliedInXTo
104 # Construction des perturbations
105 # ------------------------------
106 Perturbations = [ 10**i for i in range(self._parameters["EpsilonMinimumExponent"],1) ]
107 Perturbations.reverse()
109 # Calcul du point courant
110 # -----------------------
111 Xn = numpy.asmatrix(numpy.ravel( Xb )).T
112 FX = numpy.asmatrix(numpy.ravel( Hm( Xn ) )).T
113 NormeX = numpy.linalg.norm( Xn )
114 NormeFX = numpy.linalg.norm( FX )
115 if "CurrentState" in self._parameters["StoreSupplementaryCalculations"]:
116 self.StoredVariables["CurrentState"].store( numpy.ravel(Xn) )
117 if "SimulatedObservationAtCurrentState" in self._parameters["StoreSupplementaryCalculations"]:
118 self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX) )
120 # Fabrication de la direction de l'increment dX
121 # ---------------------------------------------
122 if len(self._parameters["InitialDirection"]) == 0:
126 dX0.append( numpy.random.normal(0.,abs(v)) )
128 dX0.append( numpy.random.normal(0.,Xn.mean()) )
130 dX0 = numpy.ravel( self._parameters["InitialDirection"] )
132 dX0 = float(self._parameters["AmplitudeOfInitialDirection"]) * numpy.matrix( dX0 ).T
134 # Calcul du gradient au point courant X pour l'increment dX
135 # ---------------------------------------------------------
136 if self._parameters["ResiduFormula"] in ["Taylor", "NominalTaylor", "NominalTaylorRMS"]:
137 dX1 = float(self._parameters["AmplitudeOfTangentPerturbation"]) * dX0
138 GradFxdX = Ht( (Xn, dX1) )
139 GradFxdX = numpy.asmatrix(numpy.ravel( GradFxdX )).T
140 GradFxdX = float(1./self._parameters["AmplitudeOfTangentPerturbation"]) * GradFxdX
142 # Entete des resultats
143 # --------------------
146 Remarque : les nombres inferieurs a %.0e (environ) representent un zero
147 a la precision machine.\n"""%mpr
148 if self._parameters["ResiduFormula"] == "CenteredDL":
149 __entete = u" i Alpha ||X|| ||F(X)|| | R(Alpha) log10( R )"
151 On observe le residu provenant de la difference centree des valeurs de F
152 au point nominal et aux points perturbes, normalisee par la valeur au
155 || F(X+Alpha*dX) + F(X-Alpha*dX) - 2*F(X) ||
156 R(Alpha) = --------------------------------------------
159 S'il reste constamment tres faible par rapport a 1, l'hypothese de linearite
162 Si le residu varie, ou qu'il est de l'ordre de 1 ou plus, et qu'il n'est
163 faible qu'a partir d'un certain ordre d'increment, l'hypothese de linearite
164 de F n'est pas verifiee.
166 Si le residu decroit et que la decroissance se fait en Alpha**2 selon Alpha,
167 cela signifie que le gradient est calculable jusqu'a la precision d'arret
168 de la decroissance quadratique.
170 On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.\n""" + __precision
171 if self._parameters["ResiduFormula"] == "Taylor":
172 __entete = u" i Alpha ||X|| ||F(X)|| | R(Alpha) log10( R )"
174 On observe le residu issu du developpement de Taylor de la fonction F,
175 normalisee par la valeur au point nominal :
177 || F(X+Alpha*dX) - F(X) - Alpha * GradientF_X(dX) ||
178 R(Alpha) = ----------------------------------------------------
181 S'il reste constamment tres faible par rapport a 1, l'hypothese de linearite
184 Si le residu varie, ou qu'il est de l'ordre de 1 ou plus, et qu'il n'est
185 faible qu'a partir d'un certain ordre d'increment, l'hypothese de linearite
186 de F n'est pas verifiee.
188 Si le residu decroit et que la decroissance se fait en Alpha**2 selon Alpha,
189 cela signifie que le gradient est bien calcule jusqu'a la precision d'arret
190 de la decroissance quadratique.
192 On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.\n""" + __precision
193 if self._parameters["ResiduFormula"] == "NominalTaylor":
194 __entete = u" i Alpha ||X|| ||F(X)|| | R(Alpha) |R-1| en %"
196 On observe le residu obtenu a partir de deux approximations d'ordre 1 de F(X),
197 normalisees par la valeur au point nominal :
200 || F(X+Alpha*dX) - Alpha * F(dX) || / || F(X) ||,
201 || F(X-Alpha*dX) + Alpha * F(dX) || / || F(X) ||,
204 S'il reste constamment egal a 1 a moins de 2 ou 3 pourcents pres (c'est-a-dire
205 que |R-1| reste egal a 2 ou 3 pourcents), c'est que l'hypothese de linearite
208 S'il est egal a 1 sur une partie seulement du domaine de variation de
209 l'increment Alpha, c'est sur cette partie que l'hypothese de linearite de F
212 On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.\n""" + __precision
213 if self._parameters["ResiduFormula"] == "NominalTaylorRMS":
214 __entete = u" i Alpha ||X|| ||F(X)|| | R(Alpha) |R| en %"
216 On observe le residu obtenu a partir de deux approximations d'ordre 1 de F(X),
217 normalisees par la valeur au point nominal :
220 RMS( F(X), F(X+Alpha*dX) - Alpha * F(dX) ) / || F(X) ||,
221 RMS( F(X), F(X-Alpha*dX) + Alpha * F(dX) ) / || F(X) ||,
224 S'il reste constamment egal a 0 a moins de 1 ou 2 pourcents pres, c'est
225 que l'hypothese de linearite de F est verifiee.
227 S'il est egal a 0 sur une partie seulement du domaine de variation de
228 l'increment Alpha, c'est sur cette partie que l'hypothese de linearite de F
231 On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.\n""" + __precision
233 if len(self._parameters["ResultTitle"]) > 0:
234 __rt = unicode(self._parameters["ResultTitle"])
236 msgs += __marge + "====" + "="*len(__rt) + "====\n"
237 msgs += __marge + " " + __rt + "\n"
238 msgs += __marge + "====" + "="*len(__rt) + "====\n"
243 __nbtirets = len(__entete) + 2
244 msgs += "\n" + __marge + "-"*__nbtirets
245 msgs += "\n" + __marge + __entete
246 msgs += "\n" + __marge + "-"*__nbtirets
248 # Boucle sur les perturbations
249 # ----------------------------
250 for i,amplitude in enumerate(Perturbations):
253 if self._parameters["ResiduFormula"] == "CenteredDL":
254 if "CurrentState" in self._parameters["StoreSupplementaryCalculations"]:
255 self.StoredVariables["CurrentState"].store( numpy.ravel(Xn + dX) )
256 self.StoredVariables["CurrentState"].store( numpy.ravel(Xn - dX) )
258 FX_plus_dX = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
259 FX_moins_dX = numpy.asmatrix(numpy.ravel( Hm( Xn - dX ) )).T
261 if "SimulatedObservationAtCurrentState" in self._parameters["StoreSupplementaryCalculations"]:
262 self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_plus_dX) )
263 self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_moins_dX) )
265 Residu = numpy.linalg.norm( FX_plus_dX + FX_moins_dX - 2 * FX ) / NormeFX
267 self.StoredVariables["Residu"].store( Residu )
268 msg = " %2i %5.0e %9.3e %9.3e | %9.3e %4.0f"%(i,amplitude,NormeX,NormeFX,Residu,math.log10(max(1.e-99,Residu)))
269 msgs += "\n" + __marge + msg
271 if self._parameters["ResiduFormula"] == "Taylor":
272 if "CurrentState" in self._parameters["StoreSupplementaryCalculations"]:
273 self.StoredVariables["CurrentState"].store( numpy.ravel(Xn + dX) )
275 FX_plus_dX = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
277 if "SimulatedObservationAtCurrentState" in self._parameters["StoreSupplementaryCalculations"]:
278 self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_plus_dX) )
280 Residu = numpy.linalg.norm( FX_plus_dX - FX - amplitude * GradFxdX ) / NormeFX
282 self.StoredVariables["Residu"].store( Residu )
283 msg = " %2i %5.0e %9.3e %9.3e | %9.3e %4.0f"%(i,amplitude,NormeX,NormeFX,Residu,math.log10(max(1.e-99,Residu)))
284 msgs += "\n" + __marge + msg
286 if self._parameters["ResiduFormula"] == "NominalTaylor":
287 if "CurrentState" in self._parameters["StoreSupplementaryCalculations"]:
288 self.StoredVariables["CurrentState"].store( numpy.ravel(Xn + dX) )
289 self.StoredVariables["CurrentState"].store( numpy.ravel(Xn - dX) )
290 self.StoredVariables["CurrentState"].store( numpy.ravel(dX) )
292 FX_plus_dX = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
293 FX_moins_dX = numpy.asmatrix(numpy.ravel( Hm( Xn - dX ) )).T
294 FdX = numpy.asmatrix(numpy.ravel( Hm( dX ) )).T
296 if "SimulatedObservationAtCurrentState" in self._parameters["StoreSupplementaryCalculations"]:
297 self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_plus_dX) )
298 self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_moins_dX) )
299 self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FdX) )
302 numpy.linalg.norm( FX_plus_dX - amplitude * FdX ) / NormeFX,
303 numpy.linalg.norm( FX_moins_dX + amplitude * FdX ) / NormeFX,
306 self.StoredVariables["Residu"].store( Residu )
307 msg = " %2i %5.0e %9.3e %9.3e | %9.3e %5i %s"%(i,amplitude,NormeX,NormeFX,Residu,100.*abs(Residu-1.),"%")
308 msgs += "\n" + __marge + msg
310 if self._parameters["ResiduFormula"] == "NominalTaylorRMS":
311 if "CurrentState" in self._parameters["StoreSupplementaryCalculations"]:
312 self.StoredVariables["CurrentState"].store( numpy.ravel(Xn + dX) )
313 self.StoredVariables["CurrentState"].store( numpy.ravel(Xn - dX) )
314 self.StoredVariables["CurrentState"].store( numpy.ravel(dX) )
316 FX_plus_dX = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
317 FX_moins_dX = numpy.asmatrix(numpy.ravel( Hm( Xn - dX ) )).T
318 FdX = numpy.asmatrix(numpy.ravel( Hm( dX ) )).T
320 if "SimulatedObservationAtCurrentState" in self._parameters["StoreSupplementaryCalculations"]:
321 self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_plus_dX) )
322 self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_moins_dX) )
323 self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FdX) )
326 RMS( FX, FX_plus_dX - amplitude * FdX ) / NormeFX,
327 RMS( FX, FX_moins_dX + amplitude * FdX ) / NormeFX,
330 self.StoredVariables["Residu"].store( Residu )
331 msg = " %2i %5.0e %9.3e %9.3e | %9.3e %5i %s"%(i,amplitude,NormeX,NormeFX,Residu,100.*Residu,"%")
332 msgs += "\n" + __marge + msg
334 msgs += "\n" + __marge + "-"*__nbtirets
337 # Sorties eventuelles
338 # -------------------
339 print("\nResults of linearity check by \"%s\" formula:"%self._parameters["ResiduFormula"])
345 # ==============================================================================
346 if __name__ == "__main__":
347 print('\n AUTODIAGNOSTIC \n')