]> SALOME platform Git repositories - modules/adao.git/blob - src/daComposant/daAlgorithms/DerivativesFreeOptimization.py
Salome HOME
Documentation correction and improvements
[modules/adao.git] / src / daComposant / daAlgorithms / DerivativesFreeOptimization.py
1 #-*-coding:iso-8859-1-*-
2 #
3 #  Copyright (C) 2008-2015 EDF R&D
4 #
5 #  This library is free software; you can redistribute it and/or
6 #  modify it under the terms of the GNU Lesser General Public
7 #  License as published by the Free Software Foundation; either
8 #  version 2.1 of the License.
9 #
10 #  This library is distributed in the hope that it will be useful,
11 #  but WITHOUT ANY WARRANTY; without even the implied warranty of
12 #  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13 #  Lesser General Public License for more details.
14 #
15 #  You should have received a copy of the GNU Lesser General Public
16 #  License along with this library; if not, write to the Free Software
17 #  Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
18 #
19 #  See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
20 #
21 #  Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
22
23 import logging
24 from daCore import BasicObjects
25 import numpy, scipy.optimize
26
27 # ==============================================================================
28 class ElementaryAlgorithm(BasicObjects.Algorithm):
29     def __init__(self):
30         BasicObjects.Algorithm.__init__(self, "DERIVATIVESFREEOPTIMIZATION")
31         self.defineRequiredParameter(
32             name     = "Minimizer",
33             default  = "POWELL",
34             typecast = str,
35             message  = "Minimiseur utilisé",
36             listval  = ["POWELL", "SIMPLEX"],
37             )
38         self.defineRequiredParameter(
39             name     = "MaximumNumberOfSteps",
40             default  = 15000,
41             typecast = int,
42             message  = "Nombre maximal de pas d'optimisation",
43             minval   = -1,
44             )
45         self.defineRequiredParameter(
46             name     = "MaximumNumberOfFunctionEvaluations",
47             default  = 15000,
48             typecast = int,
49             message  = "Nombre maximal de d'évaluations de la function",
50             minval   = -1,
51             )
52         self.defineRequiredParameter(
53             name     = "StateVariationTolerance",
54             default  = 1.e-4,
55             typecast = float,
56             message  = "Variation relative minimale de l'état lors de l'arrêt",
57             )
58         self.defineRequiredParameter(
59             name     = "CostDecrementTolerance",
60             default  = 1.e-7,
61             typecast = float,
62             message  = "Diminution relative minimale du cout lors de l'arrêt",
63             )
64         self.defineRequiredParameter(
65             name     = "QualityCriterion",
66             default  = "AugmentedWeightedLeastSquares",
67             typecast = str,
68             message  = "Critère de qualité utilisé",
69             listval  = ["AugmentedWeightedLeastSquares","AWLS","DA",
70                         "WeightedLeastSquares","WLS",
71                         "LeastSquares","LS","L2",
72                         "AbsoluteValue","L1",
73                         "MaximumError","ME"],
74             )
75         self.defineRequiredParameter(
76             name     = "StoreInternalVariables",
77             default  = False,
78             typecast = bool,
79             message  = "Stockage des variables internes ou intermédiaires du calcul",
80             )
81         self.defineRequiredParameter(
82             name     = "StoreSupplementaryCalculations",
83             default  = [],
84             typecast = tuple,
85             message  = "Liste de calculs supplémentaires à stocker et/ou effectuer",
86             listval  = ["CurrentState", "CostFunctionJ", "SimulatedObservationAtBackground", "SimulatedObservationAtCurrentState", "SimulatedObservationAtOptimum"]
87             )
88
89     def run(self, Xb=None, Y=None, U=None, HO=None, EM=None, CM=None, R=None, B=None, Q=None, Parameters=None):
90         self._pre_run()
91         if logging.getLogger().level < logging.WARNING:
92             self.__disp = 1
93         else:
94             self.__disp = 0
95         #
96         # Paramètres de pilotage
97         # ----------------------
98         self.setParameters(Parameters)
99 #         self.setParameterValue("StoreInternalVariables",True)
100 #         print self._parameters["StoreInternalVariables"]
101         #
102         # Opérateurs
103         # ----------
104         Hm = HO["Direct"].appliedTo
105         #
106         # Précalcul des inversions de B et R
107         # ----------------------------------
108         BI = B.getI()
109         RI = R.getI()
110         #
111         # Définition de la fonction-coût
112         # ------------------------------
113         def CostFunction(x, QualityMeasure="AugmentedWeightedLeastSquares"):
114             _X  = numpy.asmatrix(numpy.ravel( x )).T
115             self.StoredVariables["CurrentState"].store( _X )
116             _HX = Hm( _X )
117             _HX = numpy.asmatrix(numpy.ravel( _HX )).T
118             if "SimulatedObservationAtCurrentState" in self._parameters["StoreSupplementaryCalculations"]:
119                 self.StoredVariables["SimulatedObservationAtCurrentState"].store( _HX )
120             #
121             if QualityMeasure in ["AugmentedWeightedLeastSquares","AWLS","DA"]:
122                 if BI is None or RI is None:
123                     raise ValueError("Background and Observation error covariance matrix has to be properly defined!")
124                 Jb  = 0.5 * (_X - Xb).T * BI * (_X - Xb)
125                 Jo  = 0.5 * (Y - _HX).T * RI * (Y - _HX)
126             elif QualityMeasure in ["WeightedLeastSquares","WLS"]:
127                 if RI is None:
128                     raise ValueError("Observation error covariance matrix has to be properly defined!")
129                 Jb  = 0.
130                 Jo  = 0.5 * (Y - _HX).T * RI * (Y - _HX)
131             elif QualityMeasure in ["LeastSquares","LS","L2"]:
132                 Jb  = 0.
133                 Jo  = 0.5 * (Y - _HX).T * (Y - _HX)
134             elif QualityMeasure in ["AbsoluteValue","L1"]:
135                 Jb  = 0.
136                 Jo  = numpy.sum( numpy.abs(Y - _HX) )
137             elif QualityMeasure in ["MaximumError","ME"]:
138                 Jb  = 0.
139                 Jo  = numpy.max( numpy.abs(Y - _HX) )
140             #
141             J   = float( Jb ) + float( Jo )
142             #
143             self.StoredVariables["CostFunctionJb"].store( Jb )
144             self.StoredVariables["CostFunctionJo"].store( Jo )
145             self.StoredVariables["CostFunctionJ" ].store( J )
146             return J
147         #
148         # Point de démarrage de l'optimisation : Xini = Xb
149         # ------------------------------------
150         Xini = numpy.ravel(Xb)
151         #
152         # Minimisation de la fonctionnelle
153         # --------------------------------
154         nbPreviousSteps = self.StoredVariables["CostFunctionJ"].stepnumber()
155         #
156         if self._parameters["Minimizer"] == "POWELL":
157             Minimum, J_optimal, direc, niter, nfeval, rc = scipy.optimize.fmin_powell(
158                 func        = CostFunction,
159                 x0          = Xini,
160                 args        = (self._parameters["QualityCriterion"],),
161                 maxiter     = self._parameters["MaximumNumberOfSteps"]-1,
162                 maxfun      = self._parameters["MaximumNumberOfFunctionEvaluations"]-1,
163                 xtol        = self._parameters["StateVariationTolerance"],
164                 ftol        = self._parameters["CostDecrementTolerance"],
165                 full_output = True,
166                 disp        = self.__disp,
167                 )
168         elif self._parameters["Minimizer"] == "SIMPLEX":
169             Minimum, J_optimal, niter, nfeval, rc = scipy.optimize.fmin(
170                 func        = CostFunction,
171                 x0          = Xini,
172                 args        = (self._parameters["QualityCriterion"],),
173                 maxiter     = self._parameters["MaximumNumberOfSteps"]-1,
174                 maxfun      = self._parameters["MaximumNumberOfFunctionEvaluations"]-1,
175                 xtol        = self._parameters["StateVariationTolerance"],
176                 ftol        = self._parameters["CostDecrementTolerance"],
177                 full_output = True,
178                 disp        = self.__disp,
179                 )
180         else:
181             raise ValueError("Error in Minimizer name: %s"%self._parameters["Minimizer"])
182         #
183         IndexMin = numpy.argmin( self.StoredVariables["CostFunctionJ"][nbPreviousSteps:] ) + nbPreviousSteps
184         MinJ     = self.StoredVariables["CostFunctionJ"][IndexMin]
185         Minimum  = self.StoredVariables["CurrentState"][IndexMin]
186         #
187         # Obtention de l'analyse
188         # ----------------------
189         Xa = numpy.asmatrix(numpy.ravel( Minimum )).T
190         #
191         self.StoredVariables["Analysis"].store( Xa.A1 )
192         #
193         if "SimulatedObservationAtBackground" in self._parameters["StoreSupplementaryCalculations"]:
194             self.StoredVariables["SimulatedObservationAtBackground"].store( numpy.ravel(Hm(Xb)) )
195         if "SimulatedObservationAtOptimum" in self._parameters["StoreSupplementaryCalculations"]:
196             self.StoredVariables["SimulatedObservationAtOptimum"].store( numpy.ravel(Hm(Xa)) )
197         #
198         self._post_run()
199         return 0
200
201 # ==============================================================================
202 if __name__ == "__main__":
203     print '\n AUTODIAGNOSTIC \n'