Salome HOME
Documentation and DFO method corrections
[modules/adao.git] / doc / fr / ref_algorithm_DerivativeFreeOptimization.rst
1 ..
2    Copyright (C) 2008-2016 EDF R&D
3
4    This file is part of SALOME ADAO module.
5
6    This library is free software; you can redistribute it and/or
7    modify it under the terms of the GNU Lesser General Public
8    License as published by the Free Software Foundation; either
9    version 2.1 of the License, or (at your option) any later version.
10
11    This library is distributed in the hope that it will be useful,
12    but WITHOUT ANY WARRANTY; without even the implied warranty of
13    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14    Lesser General Public License for more details.
15
16    You should have received a copy of the GNU Lesser General Public
17    License along with this library; if not, write to the Free Software
18    Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
19
20    See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
21
22    Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
23
24 .. index:: single: DerivativeFreeOptimization
25 .. _section_ref_algorithm_DerivativeFreeOptimization:
26
27 Algorithme de calcul "*DerivativeFreeOptimization*"
28 ----------------------------------------------------
29
30 .. warning::
31
32   dans sa présente version, cet algorithme est expérimental, et reste donc
33   susceptible de changements dans les prochaines versions.
34
35 Description
36 +++++++++++
37
38 Cet algorithme réalise une estimation d'état d'un système par minimisation d'une
39 fonctionnelle d'écart :math:`J` sans gradient. C'est une méthode qui n'utilise
40 pas les dérivées de la fonctionnelle d'écart. Elle entre par exemple dans la
41 même catégorie que l':ref:`section_ref_algorithm_ParticleSwarmOptimization`.
42
43 C'est une méthode d'optimisation permettant la recherche du minimum global d'une
44 fonctionnelle d'erreur :math:`J` quelconque de type :math:`L^1`, :math:`L^2` ou
45 :math:`L^{\infty}`, avec ou sans pondérations. La fonctionnelle d'erreur par
46 défaut est celle de moindres carrés pondérés augmentés, classiquement utilisée
47 en assimilation de données.
48
49 Commandes requises et optionnelles
50 ++++++++++++++++++++++++++++++++++
51
52 .. index:: single: AlgorithmParameters
53 .. index:: single: Background
54 .. index:: single: BackgroundError
55 .. index:: single: Observation
56 .. index:: single: ObservationError
57 .. index:: single: ObservationOperator
58 .. index:: single: Minimizer
59 .. index:: single: MaximumNumberOfSteps
60 .. index:: single: MaximumNumberOfFunctionEvaluations
61 .. index:: single: StateVariationTolerance
62 .. index:: single: CostDecrementTolerance
63 .. index:: single: QualityCriterion
64 .. index:: single: StoreSupplementaryCalculations
65
66 Les commandes requises générales, disponibles dans l'interface en édition, sont
67 les suivantes:
68
69   Background
70     *Commande obligatoire*. Elle définit le vecteur d'ébauche ou
71     d'initialisation, noté précédemment :math:`\mathbf{x}^b`. Sa valeur est
72     définie comme un objet de type "*Vector*" ou de type "*VectorSerie*".
73
74   BackgroundError
75     *Commande obligatoire*. Elle définit la matrice de covariance des erreurs
76     d'ébauche, notée précédemment :math:`\mathbf{B}`. Sa valeur est définie
77     comme un objet de type "*Matrix*", de type "*ScalarSparseMatrix*", ou de
78     type "*DiagonalSparseMatrix*".
79
80   Observation
81     *Commande obligatoire*. Elle définit le vecteur d'observation utilisé en
82     assimilation de données ou en optimisation, et noté précédemment
83     :math:`\mathbf{y}^o`. Sa valeur est définie comme un objet de type "*Vector*"
84     ou de type "*VectorSerie*".
85
86   ObservationError
87     *Commande obligatoire*. Elle définit la matrice de covariance des erreurs
88     d'ébauche, notée précédemment :math:`\mathbf{R}`. Sa valeur est définie
89     comme un objet de type "*Matrix*", de type "*ScalarSparseMatrix*", ou de
90     type "*DiagonalSparseMatrix*".
91
92   ObservationOperator
93     *Commande obligatoire*. Elle indique l'opérateur d'observation, noté
94     précédemment :math:`H`, qui transforme les paramètres d'entrée
95     :math:`\mathbf{x}` en résultats :math:`\mathbf{y}` qui sont à comparer aux
96     observations :math:`\mathbf{y}^o`. Sa valeur est définie comme un objet de
97     type "*Function*" ou de type "*Matrix*". Dans le cas du type "*Function*",
98     différentes formes fonctionnelles peuvent être utilisées, comme décrit dans
99     la section :ref:`section_ref_operator_requirements`. Si un contrôle
100     :math:`U` est inclus dans le modèle d'observation, l'opérateur doit être
101     appliqué à une paire :math:`(X,U)`.
102
103 Les commandes optionnelles générales, disponibles dans l'interface en édition,
104 sont indiquées dans la :ref:`section_ref_assimilation_keywords`. De plus, les
105 paramètres de la commande "*AlgorithmParameters*" permettent d'indiquer les
106 options particulières, décrites ci-après, de l'algorithme. On se reportera à la
107 :ref:`section_ref_options_Algorithm_Parameters` pour le bon usage de cette
108 commande.
109
110 Les options de l'algorithme sont les suivantes:
111
112   Minimizer
113     Cette clé permet de changer le minimiseur pour l'optimiseur. Le choix par
114     défaut est "POWELL", et les choix possibles sont "POWELL" (minimisation sans
115     contraintes de type Powell modifiée, voir [Powell]_), "SIMPLEX"
116     (minimisation sans contraintes de type simplexe ou Nelder-Mead, voir
117     [Nelder]_), "COBYLA" (minimisation avec contraintes par approximation
118     linéaire). Il est conseillé de conserver la valeur par défaut lorsqu'il n'y
119     a pas de bornes, et de passer à "COBYLA" en cas de bornes. Remarque : la
120     méthode par défaut "POWELL" effectue une optimisation par boucles imbriquées
121     interne/externe, conduisant ainsi à un contrôle relaché du nombre
122     d'évaluations de la fonctionnelle à optimiser. Si un contrôle précis du
123     nombre d'évaluations de cette fonctionnelle est requis, il faut choisir
124     "SIMPLEX" ou "COBYLA".
125
126     Exemple : ``{"Minimizer":"POWELL"}``
127
128   MaximumNumberOfSteps
129     Cette clé indique le nombre maximum d'itérations possibles en optimisation
130     itérative. Le défaut est 15000, qui est une limite arbitraire. Il est ainsi
131     fortement recommandé d'adapter ce paramètre aux besoins pour des problèmes
132     réels. Pour certains optimiseurs, le nombre de pas effectif d'arrêt peut
133     être légèrement différent de la limite à cause d'exigences de contrôle
134     interne de l'algorithme.
135
136     Exemple : ``{"MaximumNumberOfSteps":50}``
137
138   MaximumNumberOfFunctionEvaluations
139     Cette clé indique le nombre maximum d'évaluations possibles de la
140     fonctionnelle à optimiser. Le défaut est 15000, qui est une limite
141     arbitraire. Le calcul peut dépasser ce nombre lorsqu'il doit finir une
142     boucle externe d'optimisation. Il est fortement recommandé d'adapter ce
143     paramètre aux besoins pour des problèmes réels.
144
145     Exemple : ``{"MaximumNumberOfFunctionEvaluations":50}``
146
147   StateVariationTolerance
148     Cette clé indique la variation relative maximale de l'état lors pour l'arrêt
149     par convergence sur l'état. Le défaut est de 1.e-4, et il est recommandé
150     de l'adapter aux besoins pour des problèmes réels.
151
152     Exemple : ``{"StateVariationTolerance":1.e-4}``
153
154   CostDecrementTolerance
155     Cette clé indique une valeur limite, conduisant à arrêter le processus
156     itératif d'optimisation lorsque la fonction coût décroît moins que cette
157     tolérance au dernier pas. Le défaut est de 1.e-7, et il est recommandé
158     de l'adapter aux besoins pour des problèmes réels.
159
160     Exemple : ``{"CostDecrementTolerance":1.e-7}``
161
162   QualityCriterion
163     Cette clé indique le critère de qualité, qui est minimisé pour trouver
164     l'estimation optimale de l'état. Le défaut est le critère usuel de
165     l'assimilation de données nommé "DA", qui est le critère de moindres carrés
166     pondérés augmentés. Les critères possibles sont dans la liste suivante, dans
167     laquelle les noms équivalents sont indiqués par un signe "=" :
168     ["AugmentedWeightedLeastSquares"="AWLS"="DA", "WeightedLeastSquares"="WLS",
169     "LeastSquares"="LS"="L2", "AbsoluteValue"="L1",  "MaximumError"="ME"].
170
171     Exemple : ``{"QualityCriterion":"DA"}``
172
173   StoreSupplementaryCalculations
174     Cette liste indique les noms des variables supplémentaires qui peuvent être
175     disponibles à la fin de l'algorithme. Cela implique potentiellement des
176     calculs ou du stockage coûteux. La valeur par défaut est une liste vide,
177     aucune de ces variables n'étant calculée et stockée par défaut. Les noms
178     possibles sont dans la liste suivante : ["CurrentState", "CostFunctionJ",
179     "CostFunctionJb", "CostFunctionJo", "CostFunctionJAtCurrentOptimum",
180     "CurrentOptimum", "IndexOfOptimum", "InnovationAtCurrentState", "BMA",
181     "OMA", "OMB", "SimulatedObservationAtBackground",
182     "SimulatedObservationAtCurrentOptimum",
183     "SimulatedObservationAtCurrentState", "SimulatedObservationAtOptimum"].
184
185     Exemple : ``{"StoreSupplementaryCalculations":["BMA", "Innovation"]}``
186
187 Informations et variables disponibles à la fin de l'algorithme
188 ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
189
190 En sortie, après exécution de l'algorithme, on dispose d'informations et de
191 variables issues du calcul. La description des
192 :ref:`section_ref_output_variables` indique la manière de les obtenir par la
193 méthode nommée ``get`` de la variable "*ADD*" du post-processing. Les variables
194 d'entrée, mises à disposition de l'utilisateur en sortie pour faciliter
195 l'écriture des procédures de post-processing, sont décrites dans
196 l':ref:`subsection_r_o_v_Inventaire`.
197
198 Les sorties non conditionnelles de l'algorithme sont les suivantes:
199
200   Analysis
201     *Liste de vecteurs*. Chaque élément est un état optimal :math:`\mathbf{x}*`
202     en optimisation ou une analyse :math:`\mathbf{x}^a` en assimilation de
203     données.
204
205     Exemple : ``Xa = ADD.get("Analysis")[-1]``
206
207   CostFunctionJ
208     *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
209     :math:`J`.
210
211     Exemple : ``J = ADD.get("CostFunctionJ")[:]``
212
213   CostFunctionJb
214     *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
215     :math:`J^b`, c'est-à-dire de la partie écart à l'ébauche.
216
217     Exemple : ``Jb = ADD.get("CostFunctionJb")[:]``
218
219   CostFunctionJo
220     *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
221     :math:`J^o`, c'est-à-dire de la partie écart à l'observation.
222
223     Exemple : ``Jo = ADD.get("CostFunctionJo")[:]``
224
225   CurrentState
226     *Liste de vecteurs*. Chaque élément est un vecteur d'état courant utilisé
227     au cours du déroulement de l'algorithme d'optimisation.
228
229     Exemple : ``Xs = ADD.get("CurrentState")[:]``
230
231 Les sorties conditionnelles de l'algorithme sont les suivantes:
232
233   SimulatedObservationAtBackground
234     *Liste de vecteurs*. Chaque élément est un vecteur d'observation simulé à
235     partir de l'ébauche :math:`\mathbf{x}^b`.
236
237     Exemple : ``hxb = ADD.get("SimulatedObservationAtBackground")[-1]``
238
239   SimulatedObservationAtCurrentState
240     *Liste de vecteurs*. Chaque élément est un vecteur observé à l'état courant,
241     c'est-à-dire dans l'espace des observations.
242
243     Exemple : ``Ys = ADD.get("SimulatedObservationAtCurrentState")[-1]``
244
245   SimulatedObservationAtOptimum
246     *Liste de vecteurs*. Chaque élément est un vecteur d'observation simulé à
247     partir de l'analyse ou de l'état optimal :math:`\mathbf{x}^a`.
248
249     Exemple : ``hxa = ADD.get("SimulatedObservationAtOptimum")[-1]``
250
251 Voir aussi
252 ++++++++++
253
254 Références vers d'autres sections :
255   - :ref:`section_ref_algorithm_ParticleSwarmOptimization`
256
257 Références bibliographiques :
258   - [Nelder]_
259   - [Powell]_