1 #-*-coding:iso-8859-1-*-
3 # Copyright (C) 2008-2013 EDF R&D
5 # This library is free software; you can redistribute it and/or
6 # modify it under the terms of the GNU Lesser General Public
7 # License as published by the Free Software Foundation; either
8 # version 2.1 of the License.
10 # This library is distributed in the hope that it will be useful,
11 # but WITHOUT ANY WARRANTY; without even the implied warranty of
12 # MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the GNU
13 # Lesser General Public License for more details.
15 # You should have received a copy of the GNU Lesser General Public
16 # License along with this library; if not, write to the Free Software
17 # Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
19 # See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
21 # Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
24 from daCore import BasicObjects, PlatformInfo
25 m = PlatformInfo.SystemUsage()
30 # ==============================================================================
31 class ElementaryAlgorithm(BasicObjects.Algorithm):
33 BasicObjects.Algorithm.__init__(self, "FUNCTIONTEST")
34 self.defineRequiredParameter(
35 name = "ResiduFormula",
36 default = "CenteredDL",
38 message = "Formule de résidu utilisée",
39 listval = ["CenteredDL", "Taylor", "NominalTaylor", "NominalTaylorRMS"],
41 self.defineRequiredParameter(
42 name = "EpsilonMinimumExponent",
45 message = "Exposant minimal en puissance de 10 pour le multiplicateur d'incrément",
49 self.defineRequiredParameter(
50 name = "InitialDirection",
53 message = "Direction initiale de la dérivée directionnelle autour du point nominal",
55 self.defineRequiredParameter(
56 name = "AmplitudeOfInitialDirection",
59 message = "Amplitude de la direction initiale de la dérivée directionnelle autour du point nominal",
61 self.defineRequiredParameter(
63 typecast = numpy.random.seed,
64 message = "Graine fixée pour le générateur aléatoire",
66 self.defineRequiredParameter(
70 message = "Titre du tableau et de la figure",
73 def run(self, Xb=None, Y=None, U=None, HO=None, EM=None, CM=None, R=None, B=None, Q=None, Parameters=None):
74 logging.debug("%s Lancement"%self._name)
75 logging.debug("%s Taille mémoire utilisée de %.1f Mo"%(self._name, m.getUsedMemory("M")))
77 # Paramètres de pilotage
78 # ----------------------
79 self.setParameters(Parameters)
83 return math.sqrt( ((numpy.ravel(V2) - numpy.ravel(V1))**2).sum() / float(numpy.ravel(V1).size) )
87 Hm = HO["Direct"].appliedTo
88 if self._parameters["ResiduFormula"] in ["Taylor", "NominalTaylor", "NotNominalTaylor", "NominalTaylorRMS", "NotNominalTaylorRMS"]:
89 Ht = HO["Tangent"].appliedInXTo
91 # Construction des perturbations
92 # ------------------------------
93 Perturbations = [ 10**i for i in xrange(self._parameters["EpsilonMinimumExponent"],1) ]
94 Perturbations.reverse()
96 # Calcul du point courant
97 # -----------------------
98 Xn = numpy.asmatrix(numpy.ravel( Xb )).T
99 FX = numpy.asmatrix(numpy.ravel( Hm( Xn ) )).T
100 NormeX = numpy.linalg.norm( Xn )
101 NormeFX = numpy.linalg.norm( FX )
103 # Fabrication de la direction de l'incrément dX
104 # ----------------------------------------------
105 if len(self._parameters["InitialDirection"]) == 0:
109 dX0.append( numpy.random.normal(0.,abs(v)) )
111 dX0.append( numpy.random.normal(0.,Xn.mean()) )
113 dX0 = numpy.ravel( self._parameters["InitialDirection"] )
115 dX0 = float(self._parameters["AmplitudeOfInitialDirection"]) * numpy.matrix( dX0 ).T
117 # Calcul du gradient au point courant X pour l'incrément dX
118 # ---------------------------------------------------------
119 if self._parameters["ResiduFormula"] in ["Taylor", "NominalTaylor", "NotNominalTaylor", "NominalTaylorRMS", "NotNominalTaylorRMS"]:
120 GradFxdX = Ht( (Xn, dX0) )
121 GradFxdX = numpy.asmatrix(numpy.ravel( GradFxdX )).T
123 # Entete des resultats
124 # --------------------
126 if self._parameters["ResiduFormula"] is "CenteredDL":
127 entete = " i Alpha ||X|| ||F(X)|| | R(Alpha) log( R ) "
129 On observe le residu provenant de la différence centrée des valeurs de F
130 au point nominal et aux points perturbés, normalisée par la valeur au
133 || F(X+Alpha*dX) + F(X-Alpha*dX) - 2*F(X) ||
134 R(Alpha) = --------------------------------------------
137 S'il reste constamment trés faible par rapport à 1, l'hypothèse de linéarité
140 Si le résidu varie, ou qu'il est de l'ordre de 1 ou plus, et qu'il n'est
141 faible qu'à partir d'un certain ordre d'incrément, l'hypothèse de linéarité
142 de F n'est pas vérifiée.
144 Si le résidu décroit et que la décroissance se fait en Alpha**2 selon Alpha,
145 cela signifie que le gradient est bien calculé jusqu'à la précision d'arrêt
146 de la décroissance quadratique.
148 On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
150 if self._parameters["ResiduFormula"] is "Taylor":
151 entete = " i Alpha ||X|| ||F(X)|| | R(Alpha) log( R ) "
153 On observe le residu issu du développement de Taylor de la fonction F,
154 normalisée par la valeur au point nominal :
156 || F(X+Alpha*dX) - F(X) - Alpha * GradientF_X(dX) ||
157 R(Alpha) = ----------------------------------------------------
160 S'il reste constamment trés faible par rapport à 1, l'hypothèse de linéarité
163 Si le résidu varie, ou qu'il est de l'ordre de 1 ou plus, et qu'il n'est
164 faible qu'à partir d'un certain ordre d'incrément, l'hypothèse de linéarité
165 de F n'est pas vérifiée.
167 Si le résidu décroit et que la décroissance se fait en Alpha**2 selon Alpha,
168 cela signifie que le gradient est bien calculé jusqu'à la précision d'arrêt
171 On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
173 if self._parameters["ResiduFormula"] is "NominalTaylor":
174 entete = " i Alpha ||X|| ||F(X)|| | R(Alpha) |R-1| en % "
176 On observe le residu obtenu à partir de deux approximations d'ordre 1 de F(X),
177 normalisées par la valeur au point nominal :
180 || F(X+Alpha*dX) - Alpha * F(dX) || / || F(X) ||,
181 || F(X-Alpha*dX) + Alpha * F(dX) || / || F(X) ||,
184 S'il reste constamment égal à 1 à moins de 2 ou 3 pourcents prés, c'est
185 que l'hypothèse de linéarité de F est vérifiée.
187 S'il est égal à 1 sur une partie seulement du domaine de variation de
188 l'incrément Alpha, c'est sur cette partie que l'hypothèse de linéarité de F
191 On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
193 if self._parameters["ResiduFormula"] is "NominalTaylorRMS":
194 entete = " i Alpha ||X|| ||F(X)|| | R(Alpha) |R| en % "
196 On observe le residu obtenu à partir de deux approximations d'ordre 1 de F(X),
197 normalisées par la valeur au point nominal :
200 RMS( F(X), F(X+Alpha*dX) - Alpha * F(dX) ) / || F(X) ||,
201 RMS( F(X), F(X-Alpha*dX) + Alpha * F(dX) ) / || F(X) ||,
204 S'il reste constamment égal à 0 à moins de 1 ou 2 pourcents prés, c'est
205 que l'hypothèse de linéarité de F est vérifiée.
207 S'il est égal à 0 sur une partie seulement du domaine de variation de
208 l'incrément Alpha, c'est sur cette partie que l'hypothèse de linéarité de F
211 On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
214 if len(self._parameters["ResultTitle"]) > 0:
215 msgs = marge + "====" + "="*len(self._parameters["ResultTitle"]) + "====\n"
216 msgs += marge + " " + self._parameters["ResultTitle"] + "\n"
217 msgs += marge + "====" + "="*len(self._parameters["ResultTitle"]) + "====\n"
222 nbtirets = len(entete)
223 msgs += "\n" + marge + "-"*nbtirets
224 msgs += "\n" + marge + entete
225 msgs += "\n" + marge + "-"*nbtirets
227 # Boucle sur les perturbations
228 # ----------------------------
229 for i,amplitude in enumerate(Perturbations):
232 if self._parameters["ResiduFormula"] is "CenteredDL":
233 FX_plus_dX = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
234 FX_moins_dX = numpy.asmatrix(numpy.ravel( Hm( Xn - dX ) )).T
236 Residu = numpy.linalg.norm( FX_plus_dX + FX_moins_dX - 2 * FX ) / NormeFX
238 self.StoredVariables["CostFunctionJ"].store( Residu )
239 msg = " %2i %5.0e %9.3e %9.3e | %9.3e %4.0f"%(i,amplitude,NormeX,NormeFX,Residu,math.log10(max(1.e-99,Residu)))
240 msgs += "\n" + marge + msg
242 if self._parameters["ResiduFormula"] is "Taylor":
243 FX_plus_dX = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
245 Residu = numpy.linalg.norm( FX_plus_dX - FX - amplitude * GradFxdX ) / NormeFX
247 self.StoredVariables["CostFunctionJ"].store( Residu )
248 msg = " %2i %5.0e %9.3e %9.3e | %9.3e %4.0f"%(i,amplitude,NormeX,NormeFX,Residu,math.log10(max(1.e-99,Residu)))
249 msgs += "\n" + marge + msg
251 if self._parameters["ResiduFormula"] is "NominalTaylor":
252 FX_plus_dX = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
253 FX_moins_dX = numpy.asmatrix(numpy.ravel( Hm( Xn - dX ) )).T
254 FdX = numpy.asmatrix(numpy.ravel( Hm( dX ) )).T
257 numpy.linalg.norm( FX_plus_dX - amplitude * FdX ) / NormeFX,
258 numpy.linalg.norm( FX_moins_dX + amplitude * FdX ) / NormeFX,
261 self.StoredVariables["CostFunctionJ"].store( Residu )
262 msg = " %2i %5.0e %9.3e %9.3e | %9.3e %5i %s"%(i,amplitude,NormeX,NormeFX,Residu,100*abs(Residu-1),"%")
263 msgs += "\n" + marge + msg
265 if self._parameters["ResiduFormula"] is "NominalTaylorRMS":
266 FX_plus_dX = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
267 FX_moins_dX = numpy.asmatrix(numpy.ravel( Hm( Xn - dX ) )).T
268 FdX = numpy.asmatrix(numpy.ravel( Hm( dX ) )).T
271 RMS( FX, FX_plus_dX - amplitude * FdX ) / NormeFX,
272 RMS( FX, FX_moins_dX + amplitude * FdX ) / NormeFX,
275 self.StoredVariables["CostFunctionJ"].store( Residu )
276 msg = " %2i %5.0e %9.3e %9.3e | %9.3e %5i %s"%(i,amplitude,NormeX,NormeFX,Residu,100*Residu,"%")
277 msgs += "\n" + marge + msg
279 msgs += "\n" + marge + "-"*nbtirets
282 # Sorties eventuelles
283 # -------------------
285 print "Results of linearity check by \"%s\" formula:\n"%self._parameters["ResiduFormula"]
288 logging.debug("%s Taille mémoire utilisée de %.1f Mo"%(self._name, m.getUsedMemory("M")))
289 logging.debug("%s Terminé"%self._name)
293 # ==============================================================================
294 if __name__ == "__main__":
295 print '\n AUTODIAGNOSTIC \n'