Salome HOME
Documentation update and corrections
[modules/adao.git] / doc / fr / ref_algorithm_DerivativeFreeOptimization.rst
1 ..
2    Copyright (C) 2008-2017 EDF R&D
3
4    This file is part of SALOME ADAO module.
5
6    This library is free software; you can redistribute it and/or
7    modify it under the terms of the GNU Lesser General Public
8    License as published by the Free Software Foundation; either
9    version 2.1 of the License, or (at your option) any later version.
10
11    This library is distributed in the hope that it will be useful,
12    but WITHOUT ANY WARRANTY; without even the implied warranty of
13    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14    Lesser General Public License for more details.
15
16    You should have received a copy of the GNU Lesser General Public
17    License along with this library; if not, write to the Free Software
18    Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
19
20    See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
21
22    Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
23
24 .. index:: single: DerivativeFreeOptimization
25 .. _section_ref_algorithm_DerivativeFreeOptimization:
26
27 Algorithme de calcul "*DerivativeFreeOptimization*"
28 ----------------------------------------------------
29
30 .. warning::
31
32   dans sa présente version, cet algorithme est expérimental, et reste donc
33   susceptible de changements dans les prochaines versions.
34
35 Description
36 +++++++++++
37
38 Cet algorithme réalise une estimation d'état d'un système par minimisation d'une
39 fonctionnelle d'écart :math:`J` sans gradient. C'est une méthode qui n'utilise
40 pas les dérivées de la fonctionnelle d'écart. Elle entre, par exemple, dans la
41 même catégorie que l':ref:`section_ref_algorithm_ParticleSwarmOptimization`.
42
43 C'est une méthode d'optimisation permettant la recherche du minimum global d'une
44 fonctionnelle d'erreur :math:`J` quelconque de type :math:`L^1`, :math:`L^2` ou
45 :math:`L^{\infty}`, avec ou sans pondérations. La fonctionnelle d'erreur par
46 défaut est celle de moindres carrés pondérés augmentés, classiquement utilisée
47 en assimilation de données.
48
49 Commandes requises et optionnelles
50 ++++++++++++++++++++++++++++++++++
51
52 .. index:: single: AlgorithmParameters
53 .. index:: single: Background
54 .. index:: single: BackgroundError
55 .. index:: single: Observation
56 .. index:: single: ObservationError
57 .. index:: single: ObservationOperator
58 .. index:: single: Minimizer
59 .. index:: single: MaximumNumberOfSteps
60 .. index:: single: MaximumNumberOfFunctionEvaluations
61 .. index:: single: StateVariationTolerance
62 .. index:: single: CostDecrementTolerance
63 .. index:: single: QualityCriterion
64 .. index:: single: StoreSupplementaryCalculations
65
66 Les commandes requises générales, disponibles dans l'interface en édition, sont
67 les suivantes:
68
69   Background
70     *Commande obligatoire*. Elle définit le vecteur d'ébauche ou
71     d'initialisation, noté précédemment :math:`\mathbf{x}^b`. Sa valeur est
72     définie comme un objet de type "*Vector*" ou de type "*VectorSerie*".
73
74   BackgroundError
75     *Commande obligatoire*. Elle définit la matrice de covariance des erreurs
76     d'ébauche, notée précédemment :math:`\mathbf{B}`. Sa valeur est définie
77     comme un objet de type "*Matrix*", de type "*ScalarSparseMatrix*", ou de
78     type "*DiagonalSparseMatrix*".
79
80   Observation
81     *Commande obligatoire*. Elle définit le vecteur d'observation utilisé en
82     assimilation de données ou en optimisation, et noté précédemment
83     :math:`\mathbf{y}^o`. Sa valeur est définie comme un objet de type "*Vector*"
84     ou de type "*VectorSerie*".
85
86   ObservationError
87     *Commande obligatoire*. Elle définit la matrice de covariance des erreurs
88     d'ébauche, notée précédemment :math:`\mathbf{R}`. Sa valeur est définie
89     comme un objet de type "*Matrix*", de type "*ScalarSparseMatrix*", ou de
90     type "*DiagonalSparseMatrix*".
91
92   ObservationOperator
93     *Commande obligatoire*. Elle indique l'opérateur d'observation, noté
94     précédemment :math:`H`, qui transforme les paramètres d'entrée
95     :math:`\mathbf{x}` en résultats :math:`\mathbf{y}` qui sont à comparer aux
96     observations :math:`\mathbf{y}^o`. Sa valeur est définie comme un objet de
97     type "*Function*" ou de type "*Matrix*". Dans le cas du type "*Function*",
98     différentes formes fonctionnelles peuvent être utilisées, comme décrit dans
99     la section :ref:`section_ref_operator_requirements`. Si un contrôle
100     :math:`U` est inclus dans le modèle d'observation, l'opérateur doit être
101     appliqué à une paire :math:`(X,U)`.
102
103 Les commandes optionnelles générales, disponibles dans l'interface en édition,
104 sont indiquées dans la :ref:`section_ref_assimilation_keywords`. De plus, les
105 paramètres de la commande "*AlgorithmParameters*" permettent d'indiquer les
106 options particulières, décrites ci-après, de l'algorithme. On se reportera à la
107 :ref:`section_ref_options_Algorithm_Parameters` pour le bon usage de cette
108 commande.
109
110 Les options de l'algorithme sont les suivantes:
111
112   Minimizer
113     Cette clé permet de changer le minimiseur pour l'optimiseur. Le choix par
114     défaut est "BOBYQA", et les choix possibles sont
115     "BOBYQA" (minimisation avec ou sans contraintes par approximation quadratique [Powell09]_),
116     "COBYLA" (minimisation avec ou sans contraintes par approximation linéaire [Powell94]_ [Powell98]_).
117     "NEWUOA" (minimisation avec ou sans contraintes par approximation quadratique itérative [Powell04]_),
118     "POWELL" (minimisation sans contraintes de type directions conjuguées [Powell64]_),
119     "SIMPLEX" (minimisation avec ou sans contraintes de type simplexe ou Nelder-Mead, voir [Nelder65]_),
120     "SUBPLEX" (minimisation avec ou sans contraintes de type simplexe sur une suite de sous-espaces [Rowan90]_).
121     Remarque : la méthode "POWELL" effectue une optimisation par boucles
122     imbriquées interne/externe, conduisant ainsi à un contrôle relaché du
123     nombre d'évaluations de la fonctionnelle à optimiser. Si un contrôle précis
124     du nombre d'évaluations de cette fonctionnelle est requis, il faut choisir
125     un autre minimiseur.
126
127     Exemple : ``{"Minimizer":"BOBYQA"}``
128
129   Bounds
130     Cette clé permet de définir des bornes supérieure et inférieure pour chaque
131     variable d'état optimisée. Les bornes doivent être données par une liste de
132     liste de paires de bornes inférieure/supérieure pour chaque variable, avec
133     une valeur ``None`` chaque fois qu'il n'y a pas de borne. Les bornes peuvent
134     toujours être spécifiées, mais seuls les optimiseurs sous contraintes les
135     prennent en compte.
136
137     Exemple : ``{"Bounds":[[2.,5.],[1.e-2,10.],[-30.,None],[None,None]]}``
138
139   MaximumNumberOfSteps
140     Cette clé indique le nombre maximum d'itérations possibles en optimisation
141     itérative. Le défaut est 15000, qui est une limite arbitraire. Il est ainsi
142     fortement recommandé d'adapter ce paramètre aux besoins pour des problèmes
143     réels. Pour certains optimiseurs, le nombre de pas effectif d'arrêt peut
144     être légèrement différent de la limite à cause d'exigences de contrôle
145     interne de l'algorithme.
146
147     Exemple : ``{"MaximumNumberOfSteps":50}``
148
149   MaximumNumberOfFunctionEvaluations
150     Cette clé indique le nombre maximum d'évaluations possibles de la
151     fonctionnelle à optimiser. Le défaut est de 15000, qui est une limite
152     arbitraire. Il est ainsi recommandé d'adapter ce paramètre aux besoins pour
153     des problèmes réels. Pour certains optimiseurs, le nombre effectif
154     d'évaluations à l'arrêt peut être légèrement différent de la limite à cause
155     d'exigences de déroulement interne de l'algorithme.
156
157     Exemple : ``{"MaximumNumberOfFunctionEvaluations":50}``
158
159   StateVariationTolerance
160     Cette clé indique la variation relative maximale de l'état lors pour l'arrêt
161     par convergence sur l'état. Le défaut est de 1.e-4, et il est recommandé
162     de l'adapter aux besoins pour des problèmes réels.
163
164     Exemple : ``{"StateVariationTolerance":1.e-4}``
165
166   CostDecrementTolerance
167     Cette clé indique une valeur limite, conduisant à arrêter le processus
168     itératif d'optimisation lorsque la fonction coût décroît moins que cette
169     tolérance au dernier pas. Le défaut est de 1.e-7, et il est recommandé
170     de l'adapter aux besoins pour des problèmes réels.
171
172     Exemple : ``{"CostDecrementTolerance":1.e-7}``
173
174   QualityCriterion
175     Cette clé indique le critère de qualité, qui est minimisé pour trouver
176     l'estimation optimale de l'état. Le défaut est le critère usuel de
177     l'assimilation de données nommé "DA", qui est le critère de moindres carrés
178     pondérés augmentés. Les critères possibles sont dans la liste suivante, dans
179     laquelle les noms équivalents sont indiqués par un signe "=" :
180     ["AugmentedWeightedLeastSquares"="AWLS"="DA", "WeightedLeastSquares"="WLS",
181     "LeastSquares"="LS"="L2", "AbsoluteValue"="L1",  "MaximumError"="ME"].
182
183     Exemple : ``{"QualityCriterion":"DA"}``
184
185   StoreSupplementaryCalculations
186     Cette liste indique les noms des variables supplémentaires qui peuvent être
187     disponibles à la fin de l'algorithme. Cela implique potentiellement des
188     calculs ou du stockage coûteux. La valeur par défaut est une liste vide,
189     aucune de ces variables n'étant calculée et stockée par défaut. Les noms
190     possibles sont dans la liste suivante : ["BMA", "CostFunctionJ",
191     "CostFunctionJb", "CostFunctionJo", "CostFunctionJAtCurrentOptimum",
192     "CostFunctionJbAtCurrentOptimum", "CostFunctionJoAtCurrentOptimum",
193     "CurrentOptimum", "CurrentState", "IndexOfOptimum",
194     "InnovationAtCurrentState", "OMA", "OMB",
195     "SimulatedObservationAtBackground", "SimulatedObservationAtCurrentOptimum",
196     "SimulatedObservationAtCurrentState", "SimulatedObservationAtOptimum"].
197
198     Exemple : ``{"StoreSupplementaryCalculations":["BMA", "Innovation"]}``
199
200 Informations et variables disponibles à la fin de l'algorithme
201 ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
202
203 En sortie, après exécution de l'algorithme, on dispose d'informations et de
204 variables issues du calcul. La description des
205 :ref:`section_ref_output_variables` indique la manière de les obtenir par la
206 méthode nommée ``get`` de la variable "*ADD*" du post-processing. Les variables
207 d'entrée, mises à disposition de l'utilisateur en sortie pour faciliter
208 l'écriture des procédures de post-processing, sont décrites dans
209 l':ref:`subsection_r_o_v_Inventaire`.
210
211 Les sorties non conditionnelles de l'algorithme sont les suivantes:
212
213   Analysis
214     *Liste de vecteurs*. Chaque élément est un état optimal :math:`\mathbf{x}*`
215     en optimisation ou une analyse :math:`\mathbf{x}^a` en assimilation de
216     données.
217
218     Exemple : ``Xa = ADD.get("Analysis")[-1]``
219
220   CostFunctionJ
221     *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
222     :math:`J`.
223
224     Exemple : ``J = ADD.get("CostFunctionJ")[:]``
225
226   CostFunctionJb
227     *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
228     :math:`J^b`, c'est-à-dire de la partie écart à l'ébauche.
229
230     Exemple : ``Jb = ADD.get("CostFunctionJb")[:]``
231
232   CostFunctionJo
233     *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
234     :math:`J^o`, c'est-à-dire de la partie écart à l'observation.
235
236     Exemple : ``Jo = ADD.get("CostFunctionJo")[:]``
237
238   CurrentState
239     *Liste de vecteurs*. Chaque élément est un vecteur d'état courant utilisé
240     au cours du déroulement de l'algorithme d'optimisation.
241
242     Exemple : ``Xs = ADD.get("CurrentState")[:]``
243
244 Les sorties conditionnelles de l'algorithme sont les suivantes:
245
246   CostFunctionJAtCurrentOptimum
247     *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
248     :math:`J`. A chaque pas, la valeur correspond à l'état optimal trouvé depuis
249     le début.
250
251     Exemple : ``JACO = ADD.get("CostFunctionJAtCurrentOptimum")[:]``
252
253   CostFunctionJbAtCurrentOptimum
254     *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
255     :math:`J^b`, c'est-à-dire de la partie écart à l'ébauche. A chaque pas, la
256     valeur correspond à l'état optimal trouvé depuis le début.
257
258     Exemple : ``JbACO = ADD.get("CostFunctionJbAtCurrentOptimum")[:]``
259
260   CostFunctionJoAtCurrentOptimum
261     *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
262     :math:`J^o`, c'est-à-dire de la partie écart à l'observation. A chaque pas,
263     la valeur correspond à l'état optimal trouvé depuis le début.
264
265     Exemple : ``JoACO = ADD.get("CostFunctionJoAtCurrentOptimum")[:]``
266
267   CurrentOptimum
268     *Liste de vecteurs*. Chaque élément est le vecteur d'état optimal au pas de
269     temps courant au cours du déroulement de l'algorithme d'optimisation. Ce
270     n'est pas nécessairement le dernier état.
271
272     Exemple : ``Xo = ADD.get("CurrentOptimum")[:]``
273
274   IndexOfOptimum
275     *Liste d'entiers*. Chaque élément est l'index d'itération de l'optimum
276     obtenu au cours du déroulement de l'algorithme d'optimisation. Ce n'est pas
277     nécessairement le numéro de la dernière itération.
278
279     Exemple : ``i = ADD.get("IndexOfOptimum")[-1]``
280
281   InnovationAtCurrentState
282     *Liste de vecteurs*. Chaque élément est un vecteur d'innovation à l'état
283     courant.
284
285     Exemple : ``ds = ADD.get("InnovationAtCurrentState")[-1]``
286
287   OMA
288     *Liste de vecteurs*. Chaque élément est un vecteur d'écart entre
289     l'observation et l'état optimal dans l'espace des observations.
290
291     Exemple : ``oma = ADD.get("OMA")[-1]``
292
293   OMB
294     *Liste de vecteurs*. Chaque élément est un vecteur d'écart entre
295     l'observation et l'état d'ébauche dans l'espace des observations.
296
297     Exemple : ``omb = ADD.get("OMB")[-1]``
298
299   SimulatedObservationAtBackground
300     *Liste de vecteurs*. Chaque élément est un vecteur d'observation simulé à
301     partir de l'ébauche :math:`\mathbf{x}^b`.
302
303     Exemple : ``hxb = ADD.get("SimulatedObservationAtBackground")[-1]``
304
305   SimulatedObservationAtCurrentOptimum
306     *Liste de vecteurs*. Chaque élément est un vecteur d'observation simulé à
307     partir de l'état optimal au pas de temps courant au cours du déroulement de
308     l'algorithme d'optimisation, c'est-à-dire dans l'espace des observations.
309
310     Exemple : ``hxo = ADD.get("SimulatedObservationAtCurrentOptimum")[-1]``
311
312   SimulatedObservationAtCurrentState
313     *Liste de vecteurs*. Chaque élément est un vecteur observé à l'état courant,
314     c'est-à-dire dans l'espace des observations.
315
316     Exemple : ``Ys = ADD.get("SimulatedObservationAtCurrentState")[-1]``
317
318   SimulatedObservationAtOptimum
319     *Liste de vecteurs*. Chaque élément est un vecteur d'observation simulé à
320     partir de l'analyse ou de l'état optimal :math:`\mathbf{x}^a`.
321
322     Exemple : ``hxa = ADD.get("SimulatedObservationAtOptimum")[-1]``
323
324 Voir aussi
325 ++++++++++
326
327 Références vers d'autres sections :
328   - :ref:`section_ref_algorithm_ParticleSwarmOptimization`
329
330 Références bibliographiques :
331   - [Johnson08]_
332   - [Nelder65]_
333   - [Powell64]_
334   - [Powell94]_
335   - [Powell98]_
336   - [Powell04]_
337   - [Powell07]_
338   - [Powell09]_
339   - [Rowan90]_