1 #-*-coding:iso-8859-1-*-
3 # Copyright (C) 2008-2016 EDF R&D
5 # This library is free software; you can redistribute it and/or
6 # modify it under the terms of the GNU Lesser General Public
7 # License as published by the Free Software Foundation; either
8 # version 2.1 of the License.
10 # This library is distributed in the hope that it will be useful,
11 # but WITHOUT ANY WARRANTY; without even the implied warranty of
12 # MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the GNU
13 # Lesser General Public License for more details.
15 # You should have received a copy of the GNU Lesser General Public
16 # License along with this library; if not, write to the Free Software
17 # Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
19 # See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
21 # Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
24 from daCore import BasicObjects
27 # ==============================================================================
28 class ElementaryAlgorithm(BasicObjects.Algorithm):
30 BasicObjects.Algorithm.__init__(self, "LINEARITYTEST")
31 self.defineRequiredParameter(
32 name = "ResiduFormula",
33 default = "CenteredDL",
35 message = "Formule de résidu utilisée",
36 listval = ["CenteredDL", "Taylor", "NominalTaylor", "NominalTaylorRMS"],
38 self.defineRequiredParameter(
39 name = "EpsilonMinimumExponent",
42 message = "Exposant minimal en puissance de 10 pour le multiplicateur d'incrément",
46 self.defineRequiredParameter(
47 name = "InitialDirection",
50 message = "Direction initiale de la dérivée directionnelle autour du point nominal",
52 self.defineRequiredParameter(
53 name = "AmplitudeOfInitialDirection",
56 message = "Amplitude de la direction initiale de la dérivée directionnelle autour du point nominal",
58 self.defineRequiredParameter(
59 name = "AmplitudeOfTangentPerturbation",
62 message = "Amplitude de la perturbation pour le calcul de la forme tangente",
66 self.defineRequiredParameter(
68 typecast = numpy.random.seed,
69 message = "Graine fixée pour le générateur aléatoire",
71 self.defineRequiredParameter(
75 message = "Titre du tableau et de la figure",
77 self.defineRequiredParameter(
78 name = "StoreSupplementaryCalculations",
81 message = "Liste de calculs supplémentaires à stocker et/ou effectuer",
82 listval = ["CurrentState", "Residu", "SimulatedObservationAtCurrentState"]
85 def run(self, Xb=None, Y=None, U=None, HO=None, EM=None, CM=None, R=None, B=None, Q=None, Parameters=None):
88 # Paramètres de pilotage
89 # ----------------------
90 self.setParameters(Parameters)
94 return math.sqrt( ((numpy.ravel(V2) - numpy.ravel(V1))**2).sum() / float(numpy.ravel(V1).size) )
98 Hm = HO["Direct"].appliedTo
99 if self._parameters["ResiduFormula"] in ["Taylor", "NominalTaylor", "NominalTaylorRMS"]:
100 Ht = HO["Tangent"].appliedInXTo
102 # Construction des perturbations
103 # ------------------------------
104 Perturbations = [ 10**i for i in xrange(self._parameters["EpsilonMinimumExponent"],1) ]
105 Perturbations.reverse()
107 # Calcul du point courant
108 # -----------------------
109 Xn = numpy.asmatrix(numpy.ravel( Xb )).T
110 FX = numpy.asmatrix(numpy.ravel( Hm( Xn ) )).T
111 NormeX = numpy.linalg.norm( Xn )
112 NormeFX = numpy.linalg.norm( FX )
113 if "CurrentState" in self._parameters["StoreSupplementaryCalculations"]:
114 self.StoredVariables["CurrentState"].store( numpy.ravel(Xn) )
115 if "SimulatedObservationAtCurrentState" in self._parameters["StoreSupplementaryCalculations"]:
116 self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX) )
118 # Fabrication de la direction de l'incrément dX
119 # ----------------------------------------------
120 if len(self._parameters["InitialDirection"]) == 0:
124 dX0.append( numpy.random.normal(0.,abs(v)) )
126 dX0.append( numpy.random.normal(0.,Xn.mean()) )
128 dX0 = numpy.ravel( self._parameters["InitialDirection"] )
130 dX0 = float(self._parameters["AmplitudeOfInitialDirection"]) * numpy.matrix( dX0 ).T
132 # Calcul du gradient au point courant X pour l'incrément dX
133 # ---------------------------------------------------------
134 if self._parameters["ResiduFormula"] in ["Taylor", "NominalTaylor", "NominalTaylorRMS"]:
135 dX1 = float(self._parameters["AmplitudeOfTangentPerturbation"]) * dX0
136 GradFxdX = Ht( (Xn, dX1) )
137 GradFxdX = numpy.asmatrix(numpy.ravel( GradFxdX )).T
138 GradFxdX = float(1./self._parameters["AmplitudeOfTangentPerturbation"]) * GradFxdX
140 # Entete des resultats
141 # --------------------
143 if self._parameters["ResiduFormula"] == "CenteredDL":
144 __entete = " i Alpha ||X|| ||F(X)|| | R(Alpha) log10( R ) "
146 On observe le résidu provenant de la différence centrée des valeurs de F
147 au point nominal et aux points perturbés, normalisée par la valeur au
150 || F(X+Alpha*dX) + F(X-Alpha*dX) - 2*F(X) ||
151 R(Alpha) = --------------------------------------------
154 S'il reste constamment trés faible par rapport à 1, l'hypothèse de linéarité
157 Si le résidu varie, ou qu'il est de l'ordre de 1 ou plus, et qu'il n'est
158 faible qu'à partir d'un certain ordre d'incrément, l'hypothèse de linéarité
159 de F n'est pas vérifiée.
161 Si le résidu décroit et que la décroissance se fait en Alpha**2 selon Alpha,
162 cela signifie que le gradient est calculable jusqu'à la précision d'arrêt
163 de la décroissance quadratique.
165 On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
167 if self._parameters["ResiduFormula"] == "Taylor":
168 __entete = " i Alpha ||X|| ||F(X)|| | R(Alpha) log10( R ) "
170 On observe le résidu issu du développement de Taylor de la fonction F,
171 normalisée par la valeur au point nominal :
173 || F(X+Alpha*dX) - F(X) - Alpha * GradientF_X(dX) ||
174 R(Alpha) = ----------------------------------------------------
177 S'il reste constamment trés faible par rapport à 1, l'hypothèse de linéarité
180 Si le résidu varie, ou qu'il est de l'ordre de 1 ou plus, et qu'il n'est
181 faible qu'à partir d'un certain ordre d'incrément, l'hypothèse de linéarité
182 de F n'est pas vérifiée.
184 Si le résidu décroit et que la décroissance se fait en Alpha**2 selon Alpha,
185 cela signifie que le gradient est bien calculé jusqu'à la précision d'arrêt
186 de la décroissance quadratique.
188 On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
190 if self._parameters["ResiduFormula"] == "NominalTaylor":
191 __entete = " i Alpha ||X|| ||F(X)|| | R(Alpha) |R-1| en % "
193 On observe le résidu obtenu à partir de deux approximations d'ordre 1 de F(X),
194 normalisées par la valeur au point nominal :
197 || F(X+Alpha*dX) - Alpha * F(dX) || / || F(X) ||,
198 || F(X-Alpha*dX) + Alpha * F(dX) || / || F(X) ||,
201 S'il reste constamment égal à 1 à moins de 2 ou 3 pourcents prés (c'est-à-dire
202 que |R-1| reste égal à 2 ou 3 pourcents), c'est que l'hypothèse de linéarité
205 S'il est égal à 1 sur une partie seulement du domaine de variation de
206 l'incrément Alpha, c'est sur cette partie que l'hypothèse de linéarité de F
209 On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
211 if self._parameters["ResiduFormula"] == "NominalTaylorRMS":
212 __entete = " i Alpha ||X|| ||F(X)|| | R(Alpha) |R| en % "
214 On observe le résidu obtenu à partir de deux approximations d'ordre 1 de F(X),
215 normalisées par la valeur au point nominal :
218 RMS( F(X), F(X+Alpha*dX) - Alpha * F(dX) ) / || F(X) ||,
219 RMS( F(X), F(X-Alpha*dX) + Alpha * F(dX) ) / || F(X) ||,
222 S'il reste constamment égal à 0 à moins de 1 ou 2 pourcents prés, c'est
223 que l'hypothèse de linéarité de F est vérifiée.
225 S'il est égal à 0 sur une partie seulement du domaine de variation de
226 l'incrément Alpha, c'est sur cette partie que l'hypothèse de linéarité de F
229 On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
232 if len(self._parameters["ResultTitle"]) > 0:
234 msgs += __marge + "====" + "="*len(self._parameters["ResultTitle"]) + "====\n"
235 msgs += __marge + " " + self._parameters["ResultTitle"] + "\n"
236 msgs += __marge + "====" + "="*len(self._parameters["ResultTitle"]) + "====\n"
241 __nbtirets = len(__entete)
242 msgs += "\n" + __marge + "-"*__nbtirets
243 msgs += "\n" + __marge + __entete
244 msgs += "\n" + __marge + "-"*__nbtirets
246 # Boucle sur les perturbations
247 # ----------------------------
248 for i,amplitude in enumerate(Perturbations):
251 if self._parameters["ResiduFormula"] == "CenteredDL":
252 if "CurrentState" in self._parameters["StoreSupplementaryCalculations"]:
253 self.StoredVariables["CurrentState"].store( numpy.ravel(Xn + dX) )
254 self.StoredVariables["CurrentState"].store( numpy.ravel(Xn - dX) )
256 FX_plus_dX = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
257 FX_moins_dX = numpy.asmatrix(numpy.ravel( Hm( Xn - dX ) )).T
259 if "SimulatedObservationAtCurrentState" in self._parameters["StoreSupplementaryCalculations"]:
260 self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_plus_dX) )
261 self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_moins_dX) )
263 Residu = numpy.linalg.norm( FX_plus_dX + FX_moins_dX - 2 * FX ) / NormeFX
265 self.StoredVariables["Residu"].store( Residu )
266 msg = " %2i %5.0e %9.3e %9.3e | %9.3e %4.0f"%(i,amplitude,NormeX,NormeFX,Residu,math.log10(max(1.e-99,Residu)))
267 msgs += "\n" + __marge + msg
269 if self._parameters["ResiduFormula"] == "Taylor":
270 if "CurrentState" in self._parameters["StoreSupplementaryCalculations"]:
271 self.StoredVariables["CurrentState"].store( numpy.ravel(Xn + dX) )
273 FX_plus_dX = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
275 if "SimulatedObservationAtCurrentState" in self._parameters["StoreSupplementaryCalculations"]:
276 self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_plus_dX) )
278 Residu = numpy.linalg.norm( FX_plus_dX - FX - amplitude * GradFxdX ) / NormeFX
280 self.StoredVariables["Residu"].store( Residu )
281 msg = " %2i %5.0e %9.3e %9.3e | %9.3e %4.0f"%(i,amplitude,NormeX,NormeFX,Residu,math.log10(max(1.e-99,Residu)))
282 msgs += "\n" + __marge + msg
284 if self._parameters["ResiduFormula"] == "NominalTaylor":
285 if "CurrentState" in self._parameters["StoreSupplementaryCalculations"]:
286 self.StoredVariables["CurrentState"].store( numpy.ravel(Xn + dX) )
287 self.StoredVariables["CurrentState"].store( numpy.ravel(Xn - dX) )
288 self.StoredVariables["CurrentState"].store( numpy.ravel(dX) )
290 FX_plus_dX = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
291 FX_moins_dX = numpy.asmatrix(numpy.ravel( Hm( Xn - dX ) )).T
292 FdX = numpy.asmatrix(numpy.ravel( Hm( dX ) )).T
294 if "SimulatedObservationAtCurrentState" in self._parameters["StoreSupplementaryCalculations"]:
295 self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_plus_dX) )
296 self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_moins_dX) )
297 self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FdX) )
300 numpy.linalg.norm( FX_plus_dX - amplitude * FdX ) / NormeFX,
301 numpy.linalg.norm( FX_moins_dX + amplitude * FdX ) / NormeFX,
304 self.StoredVariables["Residu"].store( Residu )
305 msg = " %2i %5.0e %9.3e %9.3e | %9.3e %5i %s"%(i,amplitude,NormeX,NormeFX,Residu,100.*abs(Residu-1.),"%")
306 msgs += "\n" + __marge + msg
308 if self._parameters["ResiduFormula"] == "NominalTaylorRMS":
309 if "CurrentState" in self._parameters["StoreSupplementaryCalculations"]:
310 self.StoredVariables["CurrentState"].store( numpy.ravel(Xn + dX) )
311 self.StoredVariables["CurrentState"].store( numpy.ravel(Xn - dX) )
312 self.StoredVariables["CurrentState"].store( numpy.ravel(dX) )
314 FX_plus_dX = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
315 FX_moins_dX = numpy.asmatrix(numpy.ravel( Hm( Xn - dX ) )).T
316 FdX = numpy.asmatrix(numpy.ravel( Hm( dX ) )).T
318 if "SimulatedObservationAtCurrentState" in self._parameters["StoreSupplementaryCalculations"]:
319 self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_plus_dX) )
320 self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FX_moins_dX) )
321 self.StoredVariables["SimulatedObservationAtCurrentState"].store( numpy.ravel(FdX) )
324 RMS( FX, FX_plus_dX - amplitude * FdX ) / NormeFX,
325 RMS( FX, FX_moins_dX + amplitude * FdX ) / NormeFX,
328 self.StoredVariables["Residu"].store( Residu )
329 msg = " %2i %5.0e %9.3e %9.3e | %9.3e %5i %s"%(i,amplitude,NormeX,NormeFX,Residu,100.*Residu,"%")
330 msgs += "\n" + __marge + msg
332 msgs += "\n" + __marge + "-"*__nbtirets
335 # Sorties eventuelles
336 # -------------------
338 print "Results of linearity check by \"%s\" formula:"%self._parameters["ResiduFormula"]
344 # ==============================================================================
345 if __name__ == "__main__":
346 print '\n AUTODIAGNOSTIC \n'