2 Copyright (C) 2008-2015 EDF R&D
4 This file is part of SALOME ADAO module.
6 This library is free software; you can redistribute it and/or
7 modify it under the terms of the GNU Lesser General Public
8 License as published by the Free Software Foundation; either
9 version 2.1 of the License, or (at your option) any later version.
11 This library is distributed in the hope that it will be useful,
12 but WITHOUT ANY WARRANTY; without even the implied warranty of
13 MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the GNU
14 Lesser General Public License for more details.
16 You should have received a copy of the GNU Lesser General Public
17 License along with this library; if not, write to the Free Software
18 Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
20 See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
22 Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
24 .. index:: single: 3DVAR
25 .. _section_ref_algorithm_3DVAR:
27 Algorithme de calcul "*3DVAR*"
28 ------------------------------
33 Cet algorithme réalise une estimation d'état par minimisation variationnelle de
34 la fonctionnelle :math:`J` d'écart classique en assimilation de données
37 .. math:: J(\mathbf{x})=(\mathbf{x}-\mathbf{x}^b)^T.\mathbf{B}^{-1}.(\mathbf{x}-\mathbf{x}^b)+(\mathbf{y}^o-\mathbf{H}.\mathbf{x})^T.\mathbf{R}^{-1}.(\mathbf{y}^o-\mathbf{H}.\mathbf{x})
39 qui est usuellement désignée comme la fonctionnelle "*3D-VAR*" (voir par exemple
42 Commandes requises et optionnelles
43 ++++++++++++++++++++++++++++++++++
45 .. index:: single: Background
46 .. index:: single: BackgroundError
47 .. index:: single: Observation
48 .. index:: single: ObservationError
49 .. index:: single: ObservationOperator
50 .. index:: single: Minimizer
51 .. index:: single: Bounds
52 .. index:: single: MaximumNumberOfSteps
53 .. index:: single: CostDecrementTolerance
54 .. index:: single: ProjectedGradientTolerance
55 .. index:: single: GradientNormTolerance
56 .. index:: single: StoreSupplementaryCalculations
57 .. index:: single: Quantiles
58 .. index:: single: SetSeed
59 .. index:: single: NumberOfSamplesForQuantiles
60 .. index:: single: SimulationForQuantiles
62 Les commandes requises générales, disponibles dans l'interface en édition, sont
66 *Commande obligatoire*. Elle définit le vecteur d'ébauche ou
67 d'initialisation, noté précédemment :math:`\mathbf{x}^b`. Sa valeur est
68 définie comme un objet de type "*Vector*" ou de type "*VectorSerie*".
71 *Commande obligatoire*. Elle définit la matrice de covariance des erreurs
72 d'ébauche, notée précédemment :math:`\mathbf{B}`. Sa valeur est définie
73 comme un objet de type "*Matrix*", de type "*ScalarSparseMatrix*", ou de
74 type "*DiagonalSparseMatrix*".
77 *Commande obligatoire*. Elle définit le vecteur d'observation utilisé en
78 assimilation de données ou en optimisation, et noté précédemment
79 :math:`\mathbf{y}^o`. Sa valeur est définie comme un objet de type "*Vector*"
80 ou de type "*VectorSerie*".
83 *Commande obligatoire*. Elle définit la matrice de covariance des erreurs
84 d'ébauche, notée précédemment :math:`\mathbf{R}`. Sa valeur est définie
85 comme un objet de type "*Matrix*", de type "*ScalarSparseMatrix*", ou de
86 type "*DiagonalSparseMatrix*".
89 *Commande obligatoire*. Elle indique l'opérateur d'observation, noté
90 précédemment :math:`H`, qui transforme les paramètres d'entrée
91 :math:`\mathbf{x}` en résultats :math:`\mathbf{y}` qui sont à comparer aux
92 observations :math:`\mathbf{y}^o`. Sa valeur est définie comme un objet de
93 type "*Function*" ou de type "*Matrix*". Dans le cas du type "*Function*",
94 différentes formes fonctionnelles peuvent être utilisées, comme décrit dans
95 la section :ref:`section_ref_operator_requirements`. Si un contrôle
96 :math:`U` est inclus dans le modèle d'observation, l'opérateur doit être
97 appliqué à une paire :math:`(X,U)`.
99 Les commandes optionnelles générales, disponibles dans l'interface en édition,
100 sont indiquées dans la :ref:`section_ref_assimilation_keywords`. En particulier,
101 la commande optionnelle "*AlgorithmParameters*" permet d'indiquer les options
102 particulières, décrites ci-après, de l'algorithme. On se reportera à la
103 :ref:`section_ref_options_AlgorithmParameters` pour le bon usage de cette
106 Les options de l'algorithme sont les suivantes:
109 Cette clé permet de changer le minimiseur pour l'optimiseur. Le choix par
110 défaut est "LBFGSB", et les choix possibles sont "LBFGSB" (minimisation non
111 linéaire sous contraintes, voir [Byrd95]_, [Morales11]_ et [Zhu97]_), "TNC"
112 (minimisation non linéaire sous contraintes), "CG" (minimisation non
113 linéaire sans contraintes), "BFGS" (minimisation non linéaire sans
114 contraintes), "NCG" (minimisation de type gradient conjugué de Newton). Il
115 est fortement conseillé de conserver la valeur par défaut.
117 Exemple : ``{"Minimizer":"LBFGSB"}``
120 Cette clé permet de définir des bornes supérieure et inférieure pour chaque
121 variable d'état optimisée. Les bornes doivent être données par une liste de
122 liste de paires de bornes inférieure/supérieure pour chaque variable, avec
123 une valeur ``None`` chaque fois qu'il n'y a pas de borne. Les bornes peuvent
124 toujours être spécifiées, mais seuls les optimiseurs sous contraintes les
127 Exemple : ``{"Bounds":[[2.,5.],[1.e-2,10.],[-30.,None],[None,None]]}``
130 Cette clé indique le nombre maximum d'itérations possibles en optimisation
131 itérative. Le défaut est 15000, qui est très similaire à une absence de
132 limite sur les itérations. Il est ainsi recommandé d'adapter ce paramètre
133 aux besoins pour des problèmes réels. Pour certains optimiseurs, le nombre
134 de pas effectif d'arrêt peut être légèrement différent de la limite à cause
135 d'exigences de contrôle interne de l'algorithme.
137 Exemple : ``{"MaximumNumberOfSteps":100}``
139 CostDecrementTolerance
140 Cette clé indique une valeur limite, conduisant à arrêter le processus
141 itératif d'optimisation lorsque la fonction coût décroît moins que cette
142 tolérance au dernier pas. Le défaut est de 1.e-7, et il est recommandé
143 de l'adapter aux besoins pour des problèmes réels.
145 Exemple : ``{"CostDecrementTolerance":1.e-7}``
147 ProjectedGradientTolerance
148 Cette clé indique une valeur limite, conduisant à arrêter le processus
149 itératif d'optimisation lorsque toutes les composantes du gradient projeté
150 sont en-dessous de cette limite. C'est utilisé uniquement par les
151 optimiseurs sous contraintes. Le défaut est -1, qui désigne le défaut
152 interne de chaque optimiseur (usuellement 1.e-5), et il n'est pas recommandé
155 Exemple : ``{"ProjectedGradientTolerance":-1}``
157 GradientNormTolerance
158 Cette clé indique une valeur limite, conduisant à arrêter le processus
159 itératif d'optimisation lorsque la norme du gradient est en dessous de cette
160 limite. C'est utilisé uniquement par les optimiseurs sans contraintes. Le
161 défaut est 1.e-5 et il n'est pas recommandé de le changer.
163 Exemple : ``{"GradientNormTolerance":1.e-5}``
165 StoreSupplementaryCalculations
166 Cette liste indique les noms des variables supplémentaires qui peuvent être
167 disponibles à la fin de l'algorithme. Cela implique potentiellement des
168 calculs ou du stockage coûteux. La valeur par défaut est une liste vide,
169 aucune de ces variables n'étant calculée et stockée par défaut. Les noms
170 possibles sont dans la liste suivante : ["APosterioriCovariance", "BMA",
171 "CostFunctionJ", "CurrentState", "OMA", "OMB", "Innovation", "SigmaObs2",
172 "MahalanobisConsistency", "SimulatedObservationAtBackground",
173 "SimulatedObservationAtCurrentState", "SimulatedObservationAtOptimum",
174 "SimulationQuantiles"].
176 Exemple : ``{"StoreSupplementaryCalculations":["BMA","Innovation"]}``
179 Cette liste indique les valeurs de quantile, entre 0 et 1, à estimer par
180 simulation autour de l'état optimal. L'échantillonnage utilise des tirages
181 aléatoires gaussiens multivariés, dirigés par la matrice de covariance a
182 posteriori. Cette option n'est utile que si le calcul supplémentaire
183 "SimulationQuantiles" a été choisi. La valeur par défaut est une liste vide.
185 Exemple : ``{"Quantiles":[0.1,0.9]}``
188 Cette clé permet de donner un nombre entier pour fixer la graine du
189 générateur aléatoire utilisé pour générer l'ensemble. Un valeur pratique est
190 par exemple 1000. Par défaut, la graine est laissée non initialisée, et elle
191 utilise ainsi l'initialisation par défaut de l'ordinateur.
193 Exemple : ``{"SetSeed":1000}``
195 NumberOfSamplesForQuantiles
196 Cette clé indique le nombre de simulations effectuées pour estimer les
197 quantiles. Cette option n'est utile que si le calcul supplémentaire
198 "SimulationQuantiles" a été choisi. Le défaut est 100, ce qui suffit souvent
199 pour une estimation correcte de quantiles courants à 5%, 10%, 90% ou 95%.
201 Exemple : ``{"NumberOfSamplesForQuantiles":100}``
203 SimulationForQuantiles
204 Cette clé indique le type de simulation, linéaire (avec l'opérateur
205 d'observation tangent appliqué sur des incréments de perturbations autour de
206 l'état optimal) ou non-linéaire (avec l'opérateur d'observation standard
207 appliqué aux états perturbés), que l'on veut faire pour chaque perturbation.
208 Cela change essentiellement le temps de chaque simulation élémentaire,
209 usuellement plus long en non-linéaire qu'en linéaire. Cette option n'est
210 utile que si le calcul supplémentaire "SimulationQuantiles" a été choisi. La
211 valeur par défaut est "Linear", et les choix possibles sont "Linear" et
214 Exemple : ``{"SimulationForQuantiles":"Linear"}``
216 Informations et variables disponibles à la fin de l'algorithme
217 ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
219 En sortie, après exécution de l'algorithme, on dispose d'informations et de
220 variables issues du calcul. La description des
221 :ref:`section_ref_output_variables` indique la manière de les obtenir par la
222 méthode nommée ``get`` de la variable "*ADD*" du post-processing. Les variables
223 d'entrée, mises à disposition de l'utilisateur en sortie pour faciliter
224 l'écriture des procédures de post-processing, sont décrites dans
225 l':ref:`subsection_r_o_v_Inventaire`.
227 Les sorties non conditionnelles de l'algorithme sont les suivantes:
230 *Liste de vecteurs*. Chaque élément est un état optimal :math:`\mathbf{x}*`
231 en optimisation ou une analyse :math:`\mathbf{x}^a` en assimilation de
234 Exemple : ``Xa = ADD.get("Analysis")[-1]``
237 *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
240 Exemple : ``J = ADD.get("CostFunctionJ")[:]``
243 *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
244 :math:`J^b`, c'est-à-dire de la partie écart à l'ébauche.
246 Exemple : ``Jb = ADD.get("CostFunctionJb")[:]``
249 *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
250 :math:`J^o`, c'est-à-dire de la partie écart à l'observation.
252 Exemple : ``Jo = ADD.get("CostFunctionJo")[:]``
254 Les sorties conditionnelles de l'algorithme sont les suivantes:
256 APosterioriCovariance
257 *Liste de matrices*. Chaque élément est une matrice :math:`\mathbf{A}*` de
258 covariances des erreurs *a posteriori* de l'état optimal.
260 Exemple : ``A = ADD.get("APosterioriCovariance")[-1]``
263 *Liste de vecteurs*. Chaque élément est un vecteur d'écart entre
264 l'ébauche et l'état optimal.
266 Exemple : ``bma = ADD.get("BMA")[-1]``
269 *Liste de vecteurs*. Chaque élément est un vecteur d'état courant utilisé
270 au cours du déroulement de l'algorithme d'optimisation.
272 Exemple : ``Xs = ADD.get("CurrentState")[:]``
275 *Liste de vecteurs*. Chaque élément est un vecteur d'innovation, qui est
276 en statique l'écart de l'optimum à l'ébauche, et en dynamique l'incrément
279 Exemple : ``d = ADD.get("Innovation")[-1]``
281 MahalanobisConsistency
282 *Liste de valeurs*. Chaque élément est une valeur de l'indicateur de
283 qualité de Mahalanobis.
285 Exemple : ``m = ADD.get("MahalanobisConsistency")[-1]``
288 *Liste de vecteurs*. Chaque élément est un vecteur d'écart entre
289 l'observation et l'état optimal dans l'espace des observations.
291 Exemple : ``oma = ADD.get("OMA")[-1]``
294 *Liste de vecteurs*. Chaque élément est un vecteur d'écart entre
295 l'observation et l'état d'ébauche dans l'espace des observations.
297 Exemple : ``omb = ADD.get("OMB")[-1]``
300 *Liste de valeurs*. Chaque élément est une valeur de l'indicateur de
301 qualité :math:`(\sigma^o)^2` de la partie observation.
303 Exemple : ``so2 = ADD.get("SigmaObs")[-1]``
305 SimulatedObservationAtBackground
306 *Liste de vecteurs*. Chaque élément est un vecteur d'observation simulé à
307 partir de l'ébauche :math:`\mathbf{x}^b`.
309 Exemple : ``hxb = ADD.get("SimulatedObservationAtBackground")[-1]``
311 SimulatedObservationAtCurrentState
312 *Liste de vecteurs*. Chaque élément est un vecteur observé à l'état courant,
313 c'est-à-dire dans l'espace des observations.
315 Exemple : ``Ys = ADD.get("SimulatedObservationAtCurrentState")[-1]``
317 SimulatedObservationAtOptimum
318 *Liste de vecteurs*. Chaque élément est un vecteur d'observation simulé à
319 partir de l'analyse ou de l'état optimal :math:`\mathbf{x}^a`.
321 Exemple : ``hxa = ADD.get("SimulatedObservationAtOptimum")[-1]``
324 *Liste de vecteurs*. Chaque élément est un vecteur correspondant à l'état
325 observé qui réalise le quantile demandé, dans le même ordre que les
326 quantiles requis par l'utilisateur.
328 Exemple : ``sQuantiles = ADD.get("SimulationQuantiles")[:]``
333 Références vers d'autres sections :
334 - :ref:`section_ref_algorithm_Blue`
335 - :ref:`section_ref_algorithm_ExtendedBlue`
336 - :ref:`section_ref_algorithm_LinearityTest`
338 Références bibliographiques :