]> SALOME platform Git repositories - modules/adao.git/blob - src/daComposant/daAlgorithms/LinearityTest.py
Salome HOME
Homogeneization and improvment of *test printed outputs
[modules/adao.git] / src / daComposant / daAlgorithms / LinearityTest.py
1 #-*-coding:iso-8859-1-*-
2 #
3 #  Copyright (C) 2008-2013 EDF R&D
4 #
5 #  This library is free software; you can redistribute it and/or
6 #  modify it under the terms of the GNU Lesser General Public
7 #  License as published by the Free Software Foundation; either
8 #  version 2.1 of the License.
9 #
10 #  This library is distributed in the hope that it will be useful,
11 #  but WITHOUT ANY WARRANTY; without even the implied warranty of
12 #  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13 #  Lesser General Public License for more details.
14 #
15 #  You should have received a copy of the GNU Lesser General Public
16 #  License along with this library; if not, write to the Free Software
17 #  Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
18 #
19 #  See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
20 #
21 #  Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
22
23 import logging
24 from daCore import BasicObjects, PlatformInfo
25 m = PlatformInfo.SystemUsage()
26
27 import numpy
28 import math
29
30 # ==============================================================================
31 class ElementaryAlgorithm(BasicObjects.Algorithm):
32     def __init__(self):
33         BasicObjects.Algorithm.__init__(self, "FUNCTIONTEST")
34         self.defineRequiredParameter(
35             name     = "ResiduFormula",
36             default  = "CenteredDL",
37             typecast = str,
38             message  = "Formule de résidu utilisée",
39             listval  = ["CenteredDL", "Taylor", "NominalTaylor", "NominalTaylorRMS"],
40             )
41         self.defineRequiredParameter(
42             name     = "EpsilonMinimumExponent",
43             default  = -8,
44             typecast = int,
45             message  = "Exposant minimal en puissance de 10 pour le multiplicateur d'incrément",
46             minval   = -20,
47             maxval   = 0,
48             )
49         self.defineRequiredParameter(
50             name     = "InitialDirection",
51             default  = [],
52             typecast = list,
53             message  = "Direction initiale de la dérivée directionnelle autour du point nominal",
54             )
55         self.defineRequiredParameter(
56             name     = "AmplitudeOfInitialDirection",
57             default  = 1.,
58             typecast = float,
59             message  = "Amplitude de la direction initiale de la dérivée directionnelle autour du point nominal",
60             )
61         self.defineRequiredParameter(
62             name     = "SetSeed",
63             typecast = numpy.random.seed,
64             message  = "Graine fixée pour le générateur aléatoire",
65             )
66         self.defineRequiredParameter(
67             name     = "ResultTitle",
68             default  = "",
69             typecast = str,
70             message  = "Titre du tableau et de la figure",
71             )
72
73     def run(self, Xb=None, Y=None, U=None, HO=None, EM=None, CM=None, R=None, B=None, Q=None, Parameters=None):
74         logging.debug("%s Lancement"%self._name)
75         logging.debug("%s Taille mémoire utilisée de %.1f Mo"%(self._name, m.getUsedMemory("M")))
76         #
77         # Paramètres de pilotage
78         # ----------------------
79         self.setParameters(Parameters)
80         #
81         def RMS(V1, V2):
82             import math
83             return math.sqrt( ((numpy.ravel(V2) - numpy.ravel(V1))**2).sum() / float(numpy.ravel(V1).size) )
84         #
85         # Opérateurs
86         # ----------
87         Hm = HO["Direct"].appliedTo
88         if self._parameters["ResiduFormula"] in ["Taylor", "NominalTaylor", "NominalTaylorRMS"]:
89             Ht = HO["Tangent"].appliedInXTo
90         #
91         # Construction des perturbations
92         # ------------------------------
93         Perturbations = [ 10**i for i in xrange(self._parameters["EpsilonMinimumExponent"],1) ]
94         Perturbations.reverse()
95         #
96         # Calcul du point courant
97         # -----------------------
98         Xn      = numpy.asmatrix(numpy.ravel( Xb )).T
99         FX      = numpy.asmatrix(numpy.ravel( Hm( Xn ) )).T
100         NormeX  = numpy.linalg.norm( Xn )
101         NormeFX = numpy.linalg.norm( FX )
102         #
103         # Fabrication de la direction de  l'incrément dX
104         # ----------------------------------------------
105         if len(self._parameters["InitialDirection"]) == 0:
106             dX0 = []
107             for v in Xn.A1:
108                 if abs(v) > 1.e-8:
109                     dX0.append( numpy.random.normal(0.,abs(v)) )
110                 else:
111                     dX0.append( numpy.random.normal(0.,Xn.mean()) )
112         else:
113             dX0 = numpy.ravel( self._parameters["InitialDirection"] )
114         #
115         dX0 = float(self._parameters["AmplitudeOfInitialDirection"]) * numpy.matrix( dX0 ).T
116         #
117         # Calcul du gradient au point courant X pour l'incrément dX
118         # ---------------------------------------------------------
119         if self._parameters["ResiduFormula"] in ["Taylor", "NominalTaylor", "NominalTaylorRMS"]:
120             GradFxdX = Ht( (Xn, dX0) )
121             GradFxdX = numpy.asmatrix(numpy.ravel( GradFxdX )).T
122         #
123         # Entete des resultats
124         # --------------------
125         __marge =  12*" "
126         if self._parameters["ResiduFormula"] == "CenteredDL":
127             __entete = "  i   Alpha     ||X||      ||F(X)||   |   R(Alpha)   log( R )  "
128             __msgdoc = """
129             On observe le residu provenant de la différence centrée des valeurs de F
130             au point nominal et aux points perturbés, normalisée par la valeur au
131             point nominal :
132
133                          || F(X+Alpha*dX) + F(X-Alpha*dX) - 2*F(X) ||
134               R(Alpha) = --------------------------------------------
135                                          || F(X) ||
136
137             S'il reste constamment trés faible par rapport à 1, l'hypothèse de linéarité
138             de F est vérifiée.
139
140             Si le résidu varie, ou qu'il est de l'ordre de 1 ou plus, et qu'il n'est
141             faible qu'à partir d'un certain ordre d'incrément, l'hypothèse de linéarité
142             de F n'est pas vérifiée.
143
144             Si le résidu décroit et que la décroissance se fait en Alpha**2 selon Alpha,
145             cela signifie que le gradient est bien calculé jusqu'à la précision d'arrêt
146             de la décroissance quadratique.
147
148             On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
149             """
150         if self._parameters["ResiduFormula"] == "Taylor":
151             __entete = "  i   Alpha     ||X||      ||F(X)||   |   R(Alpha)   log( R )  "
152             __msgdoc = """
153             On observe le residu issu du développement de Taylor de la fonction F,
154             normalisée par la valeur au point nominal :
155
156                          || F(X+Alpha*dX) - F(X) - Alpha * GradientF_X(dX) ||
157               R(Alpha) = ----------------------------------------------------
158                                          || F(X) ||
159
160             S'il reste constamment trés faible par rapport à 1, l'hypothèse de linéarité
161             de F est vérifiée.
162
163             Si le résidu varie, ou qu'il est de l'ordre de 1 ou plus, et qu'il n'est
164             faible qu'à partir d'un certain ordre d'incrément, l'hypothèse de linéarité
165             de F n'est pas vérifiée.
166
167             Si le résidu décroit et que la décroissance se fait en Alpha**2 selon Alpha,
168             cela signifie que le gradient est bien calculé jusqu'à la précision d'arrêt
169             de la décroissance.
170
171             On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
172             """
173         if self._parameters["ResiduFormula"] == "NominalTaylor":
174             __entete = "  i   Alpha     ||X||      ||F(X)||   |   R(Alpha)   |R-1| en %  "
175             __msgdoc = """
176             On observe le residu obtenu à partir de deux approximations d'ordre 1 de F(X),
177             normalisées par la valeur au point nominal :
178
179               R(Alpha) = max(
180                 || F(X+Alpha*dX) - Alpha * F(dX) || / || F(X) ||,
181                 || F(X-Alpha*dX) + Alpha * F(dX) || / || F(X) ||,
182               )
183
184             S'il reste constamment égal à 1 à moins de 2 ou 3 pourcents prés (c'est-à-dire
185             que |R-1| reste égal à 2 ou 3 pourcents), c'est que l'hypothèse de linéarité
186             de F est vérifiée.
187
188             S'il est égal à 1 sur une partie seulement du domaine de variation de
189             l'incrément Alpha, c'est sur cette partie que l'hypothèse de linéarité de F
190             est vérifiée.
191
192             On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
193             """
194         if self._parameters["ResiduFormula"] == "NominalTaylorRMS":
195             __entete = "  i   Alpha     ||X||      ||F(X)||   |   R(Alpha)    |R| en %  "
196             __msgdoc = """
197             On observe le residu obtenu à partir de deux approximations d'ordre 1 de F(X),
198             normalisées par la valeur au point nominal :
199
200               R(Alpha) = max(
201                 RMS( F(X), F(X+Alpha*dX) - Alpha * F(dX) ) / || F(X) ||,
202                 RMS( F(X), F(X-Alpha*dX) + Alpha * F(dX) ) / || F(X) ||,
203               )
204
205             S'il reste constamment égal à 0 à moins de 1 ou 2 pourcents prés, c'est
206             que l'hypothèse de linéarité de F est vérifiée.
207
208             S'il est égal à 0 sur une partie seulement du domaine de variation de
209             l'incrément Alpha, c'est sur cette partie que l'hypothèse de linéarité de F
210             est vérifiée.
211
212             On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
213             """
214         #
215         if len(self._parameters["ResultTitle"]) > 0:
216             msgs  = "\n"
217             msgs += __marge + "====" + "="*len(self._parameters["ResultTitle"]) + "====\n"
218             msgs += __marge + "    " + self._parameters["ResultTitle"] + "\n"
219             msgs += __marge + "====" + "="*len(self._parameters["ResultTitle"]) + "====\n"
220         else:
221             msgs  = ""
222         msgs += __msgdoc
223         #
224         __nbtirets = len(__entete)
225         msgs += "\n" + __marge + "-"*__nbtirets
226         msgs += "\n" + __marge + __entete
227         msgs += "\n" + __marge + "-"*__nbtirets
228         #
229         # Boucle sur les perturbations
230         # ----------------------------
231         for i,amplitude in enumerate(Perturbations):
232             dX      = amplitude * dX0
233             #
234             if self._parameters["ResiduFormula"] == "CenteredDL":
235                 FX_plus_dX  = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
236                 FX_moins_dX = numpy.asmatrix(numpy.ravel( Hm( Xn - dX ) )).T
237                 #
238                 Residu = numpy.linalg.norm( FX_plus_dX + FX_moins_dX - 2 * FX ) / NormeFX
239                 #
240                 self.StoredVariables["CostFunctionJ"].store( Residu )
241                 msg = "  %2i  %5.0e   %9.3e   %9.3e   |   %9.3e   %4.0f"%(i,amplitude,NormeX,NormeFX,Residu,math.log10(max(1.e-99,Residu)))
242                 msgs += "\n" + __marge + msg
243             #
244             if self._parameters["ResiduFormula"] == "Taylor":
245                 FX_plus_dX  = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
246                 #
247                 Residu = numpy.linalg.norm( FX_plus_dX - FX - amplitude * GradFxdX ) / NormeFX
248                 #
249                 self.StoredVariables["CostFunctionJ"].store( Residu )
250                 msg = "  %2i  %5.0e   %9.3e   %9.3e   |   %9.3e   %4.0f"%(i,amplitude,NormeX,NormeFX,Residu,math.log10(max(1.e-99,Residu)))
251                 msgs += "\n" + __marge + msg
252             #
253             if self._parameters["ResiduFormula"] == "NominalTaylor":
254                 FX_plus_dX  = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
255                 FX_moins_dX = numpy.asmatrix(numpy.ravel( Hm( Xn - dX ) )).T
256                 FdX         = numpy.asmatrix(numpy.ravel( Hm( dX ) )).T
257                 #
258                 Residu = max(
259                     numpy.linalg.norm( FX_plus_dX  - amplitude * FdX ) / NormeFX,
260                     numpy.linalg.norm( FX_moins_dX + amplitude * FdX ) / NormeFX,
261                     )
262                 #
263                 self.StoredVariables["CostFunctionJ"].store( Residu )
264                 msg = "  %2i  %5.0e   %9.3e   %9.3e   |   %9.3e   %5i %s"%(i,amplitude,NormeX,NormeFX,Residu,100*abs(Residu-1),"%")
265                 msgs += "\n" + __marge + msg
266             #
267             if self._parameters["ResiduFormula"] == "NominalTaylorRMS":
268                 FX_plus_dX  = numpy.asmatrix(numpy.ravel( Hm( Xn + dX ) )).T
269                 FX_moins_dX = numpy.asmatrix(numpy.ravel( Hm( Xn - dX ) )).T
270                 FdX         = numpy.asmatrix(numpy.ravel( Hm( dX ) )).T
271                 #
272                 Residu = max(
273                     RMS( FX, FX_plus_dX   - amplitude * FdX ) / NormeFX,
274                     RMS( FX, FX_moins_dX  + amplitude * FdX ) / NormeFX,
275                     )
276                 #
277                 self.StoredVariables["CostFunctionJ"].store( Residu )
278                 msg = "  %2i  %5.0e   %9.3e   %9.3e   |   %9.3e   %5i %s"%(i,amplitude,NormeX,NormeFX,Residu,100*Residu,"%")
279                 msgs += "\n" + __marge + msg
280         #
281         msgs += "\n" + __marge + "-"*__nbtirets
282         msgs += "\n"
283         #
284         # Sorties eventuelles
285         # -------------------
286         print
287         print "Results of linearity check by \"%s\" formula:"%self._parameters["ResiduFormula"]
288         print msgs
289         #
290         logging.debug("%s Taille mémoire utilisée de %.1f Mo"%(self._name, m.getUsedMemory("M")))
291         logging.debug("%s Terminé"%self._name)
292         #
293         return 0
294
295 # ==============================================================================
296 if __name__ == "__main__":
297     print '\n AUTODIAGNOSTIC \n'