2 Copyright (C) 2008-2017 EDF R&D
4 This file is part of SALOME ADAO module.
6 This library is free software; you can redistribute it and/or
7 modify it under the terms of the GNU Lesser General Public
8 License as published by the Free Software Foundation; either
9 version 2.1 of the License, or (at your option) any later version.
11 This library is distributed in the hope that it will be useful,
12 but WITHOUT ANY WARRANTY; without even the implied warranty of
13 MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the GNU
14 Lesser General Public License for more details.
16 You should have received a copy of the GNU Lesser General Public
17 License along with this library; if not, write to the Free Software
18 Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
20 See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
22 Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
24 .. index:: single: DerivativeFreeOptimization
25 .. _section_ref_algorithm_DerivativeFreeOptimization:
27 Algorithme de calcul "*DerivativeFreeOptimization*"
28 ----------------------------------------------------
32 dans sa présente version, cet algorithme est expérimental, et reste donc
33 susceptible de changements dans les prochaines versions.
38 Cet algorithme réalise une estimation d'état d'un système par minimisation d'une
39 fonctionnelle d'écart :math:`J` sans gradient. C'est une méthode qui n'utilise
40 pas les dérivées de la fonctionnelle d'écart. Elle entre par exemple dans la
41 même catégorie que l':ref:`section_ref_algorithm_ParticleSwarmOptimization`.
43 C'est une méthode d'optimisation permettant la recherche du minimum global d'une
44 fonctionnelle d'erreur :math:`J` quelconque de type :math:`L^1`, :math:`L^2` ou
45 :math:`L^{\infty}`, avec ou sans pondérations. La fonctionnelle d'erreur par
46 défaut est celle de moindres carrés pondérés augmentés, classiquement utilisée
47 en assimilation de données.
49 Commandes requises et optionnelles
50 ++++++++++++++++++++++++++++++++++
52 .. index:: single: AlgorithmParameters
53 .. index:: single: Background
54 .. index:: single: BackgroundError
55 .. index:: single: Observation
56 .. index:: single: ObservationError
57 .. index:: single: ObservationOperator
58 .. index:: single: Minimizer
59 .. index:: single: MaximumNumberOfSteps
60 .. index:: single: MaximumNumberOfFunctionEvaluations
61 .. index:: single: StateVariationTolerance
62 .. index:: single: CostDecrementTolerance
63 .. index:: single: QualityCriterion
64 .. index:: single: StoreSupplementaryCalculations
66 Les commandes requises générales, disponibles dans l'interface en édition, sont
70 *Commande obligatoire*. Elle définit le vecteur d'ébauche ou
71 d'initialisation, noté précédemment :math:`\mathbf{x}^b`. Sa valeur est
72 définie comme un objet de type "*Vector*" ou de type "*VectorSerie*".
75 *Commande obligatoire*. Elle définit la matrice de covariance des erreurs
76 d'ébauche, notée précédemment :math:`\mathbf{B}`. Sa valeur est définie
77 comme un objet de type "*Matrix*", de type "*ScalarSparseMatrix*", ou de
78 type "*DiagonalSparseMatrix*".
81 *Commande obligatoire*. Elle définit le vecteur d'observation utilisé en
82 assimilation de données ou en optimisation, et noté précédemment
83 :math:`\mathbf{y}^o`. Sa valeur est définie comme un objet de type "*Vector*"
84 ou de type "*VectorSerie*".
87 *Commande obligatoire*. Elle définit la matrice de covariance des erreurs
88 d'ébauche, notée précédemment :math:`\mathbf{R}`. Sa valeur est définie
89 comme un objet de type "*Matrix*", de type "*ScalarSparseMatrix*", ou de
90 type "*DiagonalSparseMatrix*".
93 *Commande obligatoire*. Elle indique l'opérateur d'observation, noté
94 précédemment :math:`H`, qui transforme les paramètres d'entrée
95 :math:`\mathbf{x}` en résultats :math:`\mathbf{y}` qui sont à comparer aux
96 observations :math:`\mathbf{y}^o`. Sa valeur est définie comme un objet de
97 type "*Function*" ou de type "*Matrix*". Dans le cas du type "*Function*",
98 différentes formes fonctionnelles peuvent être utilisées, comme décrit dans
99 la section :ref:`section_ref_operator_requirements`. Si un contrôle
100 :math:`U` est inclus dans le modèle d'observation, l'opérateur doit être
101 appliqué à une paire :math:`(X,U)`.
103 Les commandes optionnelles générales, disponibles dans l'interface en édition,
104 sont indiquées dans la :ref:`section_ref_assimilation_keywords`. De plus, les
105 paramètres de la commande "*AlgorithmParameters*" permettent d'indiquer les
106 options particulières, décrites ci-après, de l'algorithme. On se reportera à la
107 :ref:`section_ref_options_Algorithm_Parameters` pour le bon usage de cette
110 Les options de l'algorithme sont les suivantes:
113 Cette clé permet de changer le minimiseur pour l'optimiseur. Le choix par
114 défaut est "POWELL", et les choix possibles sont "POWELL" (minimisation sans
115 contraintes de type Powell modifiée, voir [Powell]_), "SIMPLEX"
116 (minimisation sans contraintes de type simplexe ou Nelder-Mead, voir
117 [Nelder]_), "COBYLA" (minimisation avec contraintes par approximation
118 linéaire). Il est conseillé de conserver la valeur par défaut lorsqu'il n'y
119 a pas de bornes, et de passer à "COBYLA" en cas de bornes. Remarque : la
120 méthode par défaut "POWELL" effectue une optimisation par boucles imbriquées
121 interne/externe, conduisant ainsi à un contrôle relaché du nombre
122 d'évaluations de la fonctionnelle à optimiser. Si un contrôle précis du
123 nombre d'évaluations de cette fonctionnelle est requis, il faut choisir
124 "SIMPLEX" ou "COBYLA".
126 Exemple : ``{"Minimizer":"POWELL"}``
129 Cette clé indique le nombre maximum d'itérations possibles en optimisation
130 itérative. Le défaut est 15000, qui est une limite arbitraire. Il est ainsi
131 fortement recommandé d'adapter ce paramètre aux besoins pour des problèmes
132 réels. Pour certains optimiseurs, le nombre de pas effectif d'arrêt peut
133 être légèrement différent de la limite à cause d'exigences de contrôle
134 interne de l'algorithme.
136 Exemple : ``{"MaximumNumberOfSteps":50}``
138 MaximumNumberOfFunctionEvaluations
139 Cette clé indique le nombre maximum d'évaluations possibles de la
140 fonctionnelle à optimiser. Le défaut est de 15000, qui est une limite
141 arbitraire. Il est ainsi recommandé d'adapter ce paramètre aux besoins pour
142 des problèmes réels. Pour certains optimiseurs, le nombre effectif
143 d'évaluations à l'arrêt peut être légèrement différent de la limite à cause
144 d'exigences de déroulement interne de l'algorithme.
146 Exemple : ``{"MaximumNumberOfFunctionEvaluations":50}``
148 StateVariationTolerance
149 Cette clé indique la variation relative maximale de l'état lors pour l'arrêt
150 par convergence sur l'état. Le défaut est de 1.e-4, et il est recommandé
151 de l'adapter aux besoins pour des problèmes réels.
153 Exemple : ``{"StateVariationTolerance":1.e-4}``
155 CostDecrementTolerance
156 Cette clé indique une valeur limite, conduisant à arrêter le processus
157 itératif d'optimisation lorsque la fonction coût décroît moins que cette
158 tolérance au dernier pas. Le défaut est de 1.e-7, et il est recommandé
159 de l'adapter aux besoins pour des problèmes réels.
161 Exemple : ``{"CostDecrementTolerance":1.e-7}``
164 Cette clé indique le critère de qualité, qui est minimisé pour trouver
165 l'estimation optimale de l'état. Le défaut est le critère usuel de
166 l'assimilation de données nommé "DA", qui est le critère de moindres carrés
167 pondérés augmentés. Les critères possibles sont dans la liste suivante, dans
168 laquelle les noms équivalents sont indiqués par un signe "=" :
169 ["AugmentedWeightedLeastSquares"="AWLS"="DA", "WeightedLeastSquares"="WLS",
170 "LeastSquares"="LS"="L2", "AbsoluteValue"="L1", "MaximumError"="ME"].
172 Exemple : ``{"QualityCriterion":"DA"}``
174 StoreSupplementaryCalculations
175 Cette liste indique les noms des variables supplémentaires qui peuvent être
176 disponibles à la fin de l'algorithme. Cela implique potentiellement des
177 calculs ou du stockage coûteux. La valeur par défaut est une liste vide,
178 aucune de ces variables n'étant calculée et stockée par défaut. Les noms
179 possibles sont dans la liste suivante : ["CurrentState", "CostFunctionJ",
180 "CostFunctionJb", "CostFunctionJo", "CostFunctionJAtCurrentOptimum",
181 "CurrentOptimum", "IndexOfOptimum", "InnovationAtCurrentState", "BMA",
182 "OMA", "OMB", "SimulatedObservationAtBackground",
183 "SimulatedObservationAtCurrentOptimum",
184 "SimulatedObservationAtCurrentState", "SimulatedObservationAtOptimum"].
186 Exemple : ``{"StoreSupplementaryCalculations":["BMA", "Innovation"]}``
188 Informations et variables disponibles à la fin de l'algorithme
189 ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
191 En sortie, après exécution de l'algorithme, on dispose d'informations et de
192 variables issues du calcul. La description des
193 :ref:`section_ref_output_variables` indique la manière de les obtenir par la
194 méthode nommée ``get`` de la variable "*ADD*" du post-processing. Les variables
195 d'entrée, mises à disposition de l'utilisateur en sortie pour faciliter
196 l'écriture des procédures de post-processing, sont décrites dans
197 l':ref:`subsection_r_o_v_Inventaire`.
199 Les sorties non conditionnelles de l'algorithme sont les suivantes:
202 *Liste de vecteurs*. Chaque élément est un état optimal :math:`\mathbf{x}*`
203 en optimisation ou une analyse :math:`\mathbf{x}^a` en assimilation de
206 Exemple : ``Xa = ADD.get("Analysis")[-1]``
209 *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
212 Exemple : ``J = ADD.get("CostFunctionJ")[:]``
215 *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
216 :math:`J^b`, c'est-à-dire de la partie écart à l'ébauche.
218 Exemple : ``Jb = ADD.get("CostFunctionJb")[:]``
221 *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
222 :math:`J^o`, c'est-à-dire de la partie écart à l'observation.
224 Exemple : ``Jo = ADD.get("CostFunctionJo")[:]``
227 *Liste de vecteurs*. Chaque élément est un vecteur d'état courant utilisé
228 au cours du déroulement de l'algorithme d'optimisation.
230 Exemple : ``Xs = ADD.get("CurrentState")[:]``
232 Les sorties conditionnelles de l'algorithme sont les suivantes:
234 SimulatedObservationAtBackground
235 *Liste de vecteurs*. Chaque élément est un vecteur d'observation simulé à
236 partir de l'ébauche :math:`\mathbf{x}^b`.
238 Exemple : ``hxb = ADD.get("SimulatedObservationAtBackground")[-1]``
240 SimulatedObservationAtCurrentState
241 *Liste de vecteurs*. Chaque élément est un vecteur observé à l'état courant,
242 c'est-à-dire dans l'espace des observations.
244 Exemple : ``Ys = ADD.get("SimulatedObservationAtCurrentState")[-1]``
246 SimulatedObservationAtOptimum
247 *Liste de vecteurs*. Chaque élément est un vecteur d'observation simulé à
248 partir de l'analyse ou de l'état optimal :math:`\mathbf{x}^a`.
250 Exemple : ``hxa = ADD.get("SimulatedObservationAtOptimum")[-1]``
255 Références vers d'autres sections :
256 - :ref:`section_ref_algorithm_ParticleSwarmOptimization`
258 Références bibliographiques :