Salome HOME
Correcting documentation and comments
[modules/adao.git] / src / daComposant / daAlgorithms / GradientTest.py
1 #-*-coding:iso-8859-1-*-
2 #
3 #  Copyright (C) 2008-2013 EDF R&D
4 #
5 #  This library is free software; you can redistribute it and/or
6 #  modify it under the terms of the GNU Lesser General Public
7 #  License as published by the Free Software Foundation; either
8 #  version 2.1 of the License.
9 #
10 #  This library is distributed in the hope that it will be useful,
11 #  but WITHOUT ANY WARRANTY; without even the implied warranty of
12 #  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13 #  Lesser General Public License for more details.
14 #
15 #  You should have received a copy of the GNU Lesser General Public
16 #  License along with this library; if not, write to the Free Software
17 #  Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
18 #
19 #  See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
20 #
21 #  Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
22
23 import logging
24 from daCore import BasicObjects, PlatformInfo
25 m = PlatformInfo.SystemUsage()
26
27 import numpy
28
29 # ==============================================================================
30 class ElementaryAlgorithm(BasicObjects.Algorithm):
31     def __init__(self):
32         BasicObjects.Algorithm.__init__(self, "GRADIENTTEST")
33         self.defineRequiredParameter(
34             name     = "ResiduFormula",
35             default  = "Taylor",
36             typecast = str,
37             message  = "Formule de résidu utilisée",
38             listval  = ["Norm", "Taylor"],
39             )
40         self.defineRequiredParameter(
41             name     = "EpsilonMinimumExponent",
42             default  = -8,
43             typecast = int,
44             message  = "Exposant minimal en puissance de 10 pour le multiplicateur d'incrément",
45             minval   = -20,
46             maxval   = 0,
47             )
48         self.defineRequiredParameter(
49             name     = "InitialDirection",
50             default  = [],
51             typecast = list,
52             message  = "Direction initiale de la dérivée directionnelle autour du point nominal",
53             )
54         self.defineRequiredParameter(
55             name     = "AmplitudeOfInitialDirection",
56             default  = 1.,
57             typecast = float,
58             message  = "Amplitude de la direction initiale de la dérivée directionnelle autour du point nominal",
59             )
60         self.defineRequiredParameter(
61             name     = "SetSeed",
62             typecast = numpy.random.seed,
63             message  = "Graine fixée pour le générateur aléatoire",
64             )
65         self.defineRequiredParameter(
66             name     = "PlotAndSave",
67             default  = False,
68             typecast = bool,
69             message  = "Trace et sauve les résultats",
70             )
71         self.defineRequiredParameter(
72             name     = "ResultFile",
73             default  = self._name+"_result_file",
74             typecast = str,
75             message  = "Nom de base (hors extension) des fichiers de sauvegarde des résultats",
76             )
77         self.defineRequiredParameter(
78             name     = "ResultTitle",
79             default  = "",
80             typecast = str,
81             message  = "Titre du tableau et de la figure",
82             )
83         self.defineRequiredParameter(
84             name     = "ResultLabel",
85             default  = "",
86             typecast = str,
87             message  = "Label de la courbe tracée dans la figure",
88             )
89
90     def run(self, Xb=None, Y=None, U=None, HO=None, EM=None, CM=None, R=None, B=None, Q=None, Parameters=None):
91         logging.debug("%s Lancement"%self._name)
92         logging.debug("%s Taille mémoire utilisée de %.1f Mo"%(self._name, m.getUsedMemory("M")))
93         #
94         # Paramètres de pilotage
95         # ----------------------
96         self.setParameters(Parameters)
97         #
98         # Opérateurs
99         # ----------
100         Hm = HO["Direct"].appliedTo
101         if self._parameters["ResiduFormula"] is "Taylor":
102             Ht = HO["Tangent"].appliedInXTo
103         #
104         # Construction des perturbations
105         # ------------------------------
106         Perturbations = [ 10**i for i in xrange(self._parameters["EpsilonMinimumExponent"],1) ]
107         Perturbations.reverse()
108         #
109         # Calcul du point courant
110         # -----------------------
111         X       = numpy.asmatrix(numpy.ravel(    Xb   )).T
112         FX      = numpy.asmatrix(numpy.ravel( Hm( X ) )).T
113         NormeX  = numpy.linalg.norm( X )
114         NormeFX = numpy.linalg.norm( FX )
115         #
116         # Fabrication de la direction de  l'incrément dX
117         # ----------------------------------------------
118         if len(self._parameters["InitialDirection"]) == 0:
119             dX0 = []
120             for v in X.A1:
121                 if abs(v) > 1.e-8:
122                     dX0.append( numpy.random.normal(0.,abs(v)) )
123                 else:
124                     dX0.append( numpy.random.normal(0.,X.mean()) )
125         else:
126             dX0 = numpy.ravel( self._parameters["InitialDirection"] )
127         #
128         dX0 = float(self._parameters["AmplitudeOfInitialDirection"]) * numpy.matrix( dX0 ).T
129         #
130         # Calcul du gradient au point courant X pour l'incrément dX
131         # ---------------------------------------------------------
132         if self._parameters["ResiduFormula"] is "Taylor":
133             GradFxdX = Ht( (X, dX0) )
134             GradFxdX = numpy.asmatrix(numpy.ravel( GradFxdX )).T
135         #
136         # Entete des resultats
137         # --------------------
138         if self._parameters["ResiduFormula"] is "Taylor":
139             __doc__ = """
140             On observe le residu issu du développement de Taylor de la fonction F :
141
142               R(Alpha) = || F(X+Alpha*dX) - F(X) - Alpha * TangentF_X(dX) ||
143
144             Si F n'est pas linéaire, ce résidu doit décroître en Alpha**2 selon Alpha.
145             Si F est linéaire, le résidu décroit en Alpha à partir de l'erreur faite
146             sur le terme TangentF_X.
147             On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
148             """
149         elif self._parameters["ResiduFormula"] is "Norm":
150             __doc__ = """
151             On observe le residu, qui est une approximation du gradient :
152
153                           || F(X+Alpha*dX) - F(X) ||
154               R(Alpha) =  ---------------------------
155                                     Alpha
156
157             qui doit rester constant jusqu'à ce qu'on atteigne la précision du calcul.
158             On prend dX0 = Normal(0,X) et dX = Alpha*dX0. F est le code de calcul.
159             """
160         else:
161             __doc__ = ""
162         #
163         if len(self._parameters["ResultTitle"]) > 0:
164             msgs  = "         ====" + "="*len(self._parameters["ResultTitle"]) + "====\n"
165             msgs += "             " + self._parameters["ResultTitle"] + "\n"
166             msgs += "         ====" + "="*len(self._parameters["ResultTitle"]) + "====\n"
167         else:
168             msgs  = ""
169         msgs += __doc__
170         #
171         msg = "  i   Alpha       ||X||    ||F(X)||  ||F(X+dX)||    ||dX||  ||F(X+dX)-F(X)||   ||F(X+dX)-F(X)||/||dX||      R(Alpha)  "
172         nbtirets = len(msg)
173         msgs += "\n" + "-"*nbtirets
174         msgs += "\n" + msg
175         msgs += "\n" + "-"*nbtirets
176         #
177         Normalisation= -1
178         NormesdX     = []
179         NormesFXdX   = []
180         NormesdFX    = []
181         NormesdFXsdX = []
182         NormesdFXsAm = []
183         NormesdFXGdX = []
184         #
185         # Boucle sur les perturbations
186         # ----------------------------
187         for i,amplitude in enumerate(Perturbations):
188             dX      = amplitude * dX0
189             #
190             FX_plus_dX = Hm( X + dX )
191             FX_plus_dX = numpy.asmatrix(numpy.ravel( FX_plus_dX )).T
192             #
193             NormedX     = numpy.linalg.norm( dX )
194             NormeFXdX   = numpy.linalg.norm( FX_plus_dX )
195             NormedFX    = numpy.linalg.norm( FX_plus_dX - FX )
196             NormedFXsdX = NormedFX/NormedX
197             # Residu Taylor
198             if self._parameters["ResiduFormula"] is "Taylor":
199                 NormedFXGdX = numpy.linalg.norm( FX_plus_dX - FX - amplitude * GradFxdX )
200             # Residu Norm
201             NormedFXsAm = NormedFX/amplitude
202             #
203             # if numpy.abs(NormedFX) < 1.e-20:
204             #     break
205             #
206             NormesdX.append(     NormedX     )
207             NormesFXdX.append(   NormeFXdX   )
208             NormesdFX.append(    NormedFX    )
209             if self._parameters["ResiduFormula"] is "Taylor":
210                 NormesdFXGdX.append( NormedFXGdX )
211             NormesdFXsdX.append( NormedFXsdX )
212             NormesdFXsAm.append( NormedFXsAm )
213             #
214             if self._parameters["ResiduFormula"] is "Taylor":
215                 Residu = NormedFXGdX
216             elif self._parameters["ResiduFormula"] is "Norm":
217                 Residu = NormedFXsAm
218             if Normalisation < 0 : Normalisation = Residu
219             #
220             msg = "  %2i  %5.0e   %9.3e   %9.3e   %9.3e   %9.3e   %9.3e      |      %9.3e          |   %9.3e"%(i,amplitude,NormeX,NormeFX,NormeFXdX,NormedX,NormedFX,NormedFXsdX,Residu)
221             msgs += "\n" + msg
222             #
223             self.StoredVariables["CostFunctionJ"].store( Residu )
224         msgs += "\n" + "-"*nbtirets
225         msgs += "\n"
226         #
227         # Sorties eventuelles
228         # -------------------
229         print
230         print "Results of gradient stability check:"
231         print msgs
232         #
233         if self._parameters["PlotAndSave"]:
234             f = open(str(self._parameters["ResultFile"])+".txt",'a')
235             f.write(msgs)
236             f.close()
237             #
238             Residus = self.StoredVariables["CostFunctionJ"][-len(Perturbations):]
239             if self._parameters["ResiduFormula"] is "Taylor":
240                 PerturbationsCarre = [ 10**(2*i) for i in xrange(-len(NormesdFXGdX)+1,1) ]
241                 PerturbationsCarre.reverse()
242                 dessiner(
243                     Perturbations, 
244                     Residus,
245                     titre    = self._parameters["ResultTitle"],
246                     label    = self._parameters["ResultLabel"],
247                     logX     = True,
248                     logY     = True,
249                     filename = str(self._parameters["ResultFile"])+".ps",
250                     YRef     = PerturbationsCarre,
251                     normdY0  = numpy.log10( NormesdFX[0] ),
252                     )
253             elif self._parameters["ResiduFormula"] is "Norm":
254                 dessiner(
255                     Perturbations, 
256                     Residus,
257                     titre    = self._parameters["ResultTitle"],
258                     label    = self._parameters["ResultLabel"],
259                     logX     = True,
260                     logY     = True,
261                     filename = str(self._parameters["ResultFile"])+".ps",
262                     )
263         #
264         logging.debug("%s Taille mémoire utilisée de %.1f Mo"%(self._name, m.getUsedMemory("M")))
265         logging.debug("%s Terminé"%self._name)
266         #
267         return 0
268
269 # ==============================================================================
270     
271 def dessiner(
272         X,
273         Y,
274         titre     = "",
275         label     = "",
276         logX      = False,
277         logY      = False,
278         filename  = "",
279         pause     = False,
280         YRef      = None, # Vecteur de reference a comparer a Y
281         recalYRef = True, # Decalage du point 0 de YRef à Y[0]
282         normdY0   = 0.,   # Norme de DeltaY[0]
283         ):
284     import Gnuplot
285     __gnuplot = Gnuplot
286     __g = __gnuplot.Gnuplot(persist=1) # persist=1
287     # __g('set terminal '+__gnuplot.GnuplotOpts.default_term)
288     __g('set style data lines')
289     __g('set grid')
290     __g('set autoscale')
291     __g('set title  "'+titre+'"')
292     # __g('set xrange [] reverse')
293     # __g('set yrange [0:2]')
294     #
295     if logX:
296         steps = numpy.log10( X )
297         __g('set xlabel "Facteur multiplicatif de dX, en echelle log10"')
298     else:
299         steps = X
300         __g('set xlabel "Facteur multiplicatif de dX"')
301     #
302     if logY:
303         values = numpy.log10( Y )
304         __g('set ylabel "Amplitude du residu, en echelle log10"')
305     else:
306         values = Y
307         __g('set ylabel "Amplitude du residu"')
308     #
309     __g.plot( __gnuplot.Data( steps, values, title=label, with_='lines lw 3' ) )
310     if YRef is not None:
311         if logY:
312             valuesRef = numpy.log10( YRef )
313         else:
314             valuesRef = YRef
315         if recalYRef and not numpy.all(values < -8):
316             valuesRef = valuesRef + values[0]
317         elif recalYRef and numpy.all(values < -8):
318             valuesRef = valuesRef + normdY0
319         else:
320             pass
321         __g.replot( __gnuplot.Data( steps, valuesRef, title="Reference", with_='lines lw 1' ) )
322     #
323     if filename is not "":
324         __g.hardcopy( filename, color=1)
325     if pause:
326         raw_input('Please press return to continue...\n')
327
328 # ==============================================================================
329 if __name__ == "__main__":
330     print '\n AUTODIAGNOSTIC \n'