2 Copyright (C) 2008-2015 EDF R&D
4 This file is part of SALOME ADAO module.
6 This library is free software; you can redistribute it and/or
7 modify it under the terms of the GNU Lesser General Public
8 License as published by the Free Software Foundation; either
9 version 2.1 of the License, or (at your option) any later version.
11 This library is distributed in the hope that it will be useful,
12 but WITHOUT ANY WARRANTY; without even the implied warranty of
13 MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the GNU
14 Lesser General Public License for more details.
16 You should have received a copy of the GNU Lesser General Public
17 License along with this library; if not, write to the Free Software
18 Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
20 See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
22 Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
24 .. index:: single: 4DVAR
25 .. _section_ref_algorithm_4DVAR:
27 Algorithme de calcul "*4DVAR*"
28 ------------------------------
32 dans sa présente version, cet algorithme est expérimental, et reste donc
33 susceptible de changements dans les prochaines versions.
38 Cet algorithme réalise une estimation de l'état d'un système dynamique, par une
39 méthode de minimisation variationnelle de la fonctionnelle :math:`J` d'écart
40 classique en assimilation de données :
42 .. math:: J(\mathbf{x})=(\mathbf{x}-\mathbf{x}^b)^T.\mathbf{B}^{-1}.(\mathbf{x}-\mathbf{x}^b)+\sum_{t\in T}(\mathbf{y^o}(t)-H(\mathbf{x},t))^T.\mathbf{R}^{-1}.(\mathbf{y^o}(t)-H(\mathbf{x},t))
44 qui est usuellement désignée comme la fonctionnelle "*4D-VAR*" (voir par exemple
45 [Talagrand97]_). Il est bien adapté aux cas d'opérateurs d'observation et
46 d'évolution non-linéaires, son domaine d'application est comparable aux
47 algorithmes de filtrage de Kalman et en particulier
48 l':ref:`section_ref_algorithm_ExtendedKalmanFilter` ou
49 l':ref:`section_ref_algorithm_UnscentedKalmanFilter`.
51 Commandes requises et optionnelles
52 ++++++++++++++++++++++++++++++++++
54 .. index:: single: AlgorithmParameters
55 .. index:: single: Background
56 .. index:: single: BackgroundError
57 .. index:: single: Observation
58 .. index:: single: ObservationError
59 .. index:: single: ObservationOperator
60 .. index:: single: Bounds
61 .. index:: single: ConstrainedBy
62 .. index:: single: EstimationOf
63 .. index:: single: MaximumNumberOfSteps
64 .. index:: single: CostDecrementTolerance
65 .. index:: single: ProjectedGradientTolerance
66 .. index:: single: GradientNormTolerance
67 .. index:: single: StoreSupplementaryCalculations
69 Les commandes requises générales, disponibles dans l'interface en édition, sont
73 *Commande obligatoire*. Elle définit le vecteur d'ébauche ou
74 d'initialisation, noté précédemment :math:`\mathbf{x}^b`. Sa valeur est
75 définie comme un objet de type "*Vector*" ou de type "*VectorSerie*".
78 *Commande obligatoire*. Elle définit la matrice de covariance des erreurs
79 d'ébauche, notée précédemment :math:`\mathbf{B}`. Sa valeur est définie
80 comme un objet de type "*Matrix*", de type "*ScalarSparseMatrix*", ou de
81 type "*DiagonalSparseMatrix*".
84 *Commande obligatoire*. Elle définit le vecteur d'observation utilisé en
85 assimilation de données ou en optimisation, et noté précédemment
86 :math:`\mathbf{y}^o`. Sa valeur est définie comme un objet de type "*Vector*"
87 ou de type "*VectorSerie*".
90 *Commande obligatoire*. Elle définit la matrice de covariance des erreurs
91 d'ébauche, notée précédemment :math:`\mathbf{R}`. Sa valeur est définie
92 comme un objet de type "*Matrix*", de type "*ScalarSparseMatrix*", ou de
93 type "*DiagonalSparseMatrix*".
96 *Commande obligatoire*. Elle indique l'opérateur d'observation, noté
97 précédemment :math:`H`, qui transforme les paramètres d'entrée
98 :math:`\mathbf{x}` en résultats :math:`\mathbf{y}` qui sont à comparer aux
99 observations :math:`\mathbf{y}^o`. Sa valeur est définie comme un objet de
100 type "*Function*" ou de type "*Matrix*". Dans le cas du type "*Function*",
101 différentes formes fonctionnelles peuvent être utilisées, comme décrit dans
102 la section :ref:`section_ref_operator_requirements`. Si un contrôle
103 :math:`U` est inclus dans le modèle d'observation, l'opérateur doit être
104 appliqué à une paire :math:`(X,U)`.
106 Les commandes optionnelles générales, disponibles dans l'interface en édition,
107 sont indiquées dans la :ref:`section_ref_assimilation_keywords`. De plus, les
108 paramètres de la commande "*AlgorithmParameters*" permettent d'indiquer les
109 options particulières, décrites ci-après, de l'algorithme. On se reportera à la
110 :ref:`section_ref_options_Algorithm_Parameters` pour le bon usage de cette
113 Les options de l'algorithme sont les suivantes:
116 Cette clé permet de changer le minimiseur pour l'optimiseur. Le choix par
117 défaut est "LBFGSB", et les choix possibles sont "LBFGSB" (minimisation non
118 linéaire sous contraintes, voir [Byrd95]_, [Morales11]_ et [Zhu97]_), "TNC"
119 (minimisation non linéaire sous contraintes), "CG" (minimisation non
120 linéaire sans contraintes), "BFGS" (minimisation non linéaire sans
121 contraintes), "NCG" (minimisation de type gradient conjugué de Newton). Il
122 est fortement conseillé de conserver la valeur par défaut.
124 Exemple : ``{"Minimizer":"LBFGSB"}``
127 Cette clé permet de définir des bornes supérieure et inférieure pour chaque
128 variable d'état optimisée. Les bornes doivent être données par une liste de
129 liste de paires de bornes inférieure/supérieure pour chaque variable, avec
130 une valeur ``None`` chaque fois qu'il n'y a pas de borne. Les bornes peuvent
131 toujours être spécifiées, mais seuls les optimiseurs sous contraintes les
134 Exemple : ``{"Bounds":[[2.,5.],[1.e-2,10.],[-30.,None],[None,None]]}``
137 Cette clé permet d'indiquer la méthode de prise en compte des contraintes de
138 bornes. La seule disponible est "EstimateProjection", qui projete
139 l'estimation de l'état courant sur les contraintes de bornes.
141 Exemple : ``{"ConstrainedBy":"EstimateProjection"}``
144 Cette clé indique le nombre maximum d'itérations possibles en optimisation
145 itérative. Le défaut est 15000, qui est très similaire à une absence de
146 limite sur les itérations. Il est ainsi recommandé d'adapter ce paramètre
147 aux besoins pour des problèmes réels. Pour certains optimiseurs, le nombre
148 de pas effectif d'arrêt peut être légèrement différent de la limite à cause
149 d'exigences de contrôle interne de l'algorithme.
151 Exemple : ``{"MaximumNumberOfSteps":100}``
153 CostDecrementTolerance
154 Cette clé indique une valeur limite, conduisant à arrêter le processus
155 itératif d'optimisation lorsque la fonction coût décroît moins que cette
156 tolérance au dernier pas. Le défaut est de 1.e-7, et il est recommandé
157 de l'adapter aux besoins pour des problèmes réels.
159 Exemple : ``{"CostDecrementTolerance":1.e-7}``
162 Cette clé permet de choisir le type d'estimation à réaliser. Cela peut être
163 soit une estimation de l'état, avec la valeur "State", ou une estimation de
164 paramètres, avec la valeur "Parameters". Le choix par défaut est "State".
166 Exemple : ``{"EstimationOf":"Parameters"}``
168 ProjectedGradientTolerance
169 Cette clé indique une valeur limite, conduisant à arrêter le processus
170 itératif d'optimisation lorsque toutes les composantes du gradient projeté
171 sont en-dessous de cette limite. C'est utilisé uniquement par les
172 optimiseurs sous contraintes. Le défaut est -1, qui désigne le défaut
173 interne de chaque optimiseur (usuellement 1.e-5), et il n'est pas recommandé
176 Exemple : ``{"ProjectedGradientTolerance":-1}``
178 GradientNormTolerance
179 Cette clé indique une valeur limite, conduisant à arrêter le processus
180 itératif d'optimisation lorsque la norme du gradient est en dessous de cette
181 limite. C'est utilisé uniquement par les optimiseurs sans contraintes. Le
182 défaut est 1.e-5 et il n'est pas recommandé de le changer.
184 Exemple : ``{"GradientNormTolerance":1.e-5}``
186 StoreSupplementaryCalculations
187 Cette liste indique les noms des variables supplémentaires qui peuvent être
188 disponibles à la fin de l'algorithme. Cela implique potentiellement des
189 calculs ou du stockage coûteux. La valeur par défaut est une liste vide,
190 aucune de ces variables n'étant calculée et stockée par défaut. Les noms
191 possibles sont dans la liste suivante : ["BMA", "CostFunctionJ",
192 "CurrentOptimum", "CurrentState", "IndexOfOptimum"].
194 Exemple : ``{"StoreSupplementaryCalculations":["BMA", "CurrentState"]}``
196 Informations et variables disponibles à la fin de l'algorithme
197 ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
199 En sortie, après exécution de l'algorithme, on dispose d'informations et de
200 variables issues du calcul. La description des
201 :ref:`section_ref_output_variables` indique la manière de les obtenir par la
202 méthode nommée ``get`` de la variable "*ADD*" du post-processing. Les variables
203 d'entrée, mises à disposition de l'utilisateur en sortie pour faciliter
204 l'écriture des procédures de post-processing, sont décrites dans
205 l':ref:`subsection_r_o_v_Inventaire`.
207 Les sorties non conditionnelles de l'algorithme sont les suivantes:
210 *Liste de vecteurs*. Chaque élément est un état optimal :math:`\mathbf{x}*`
211 en optimisation ou une analyse :math:`\mathbf{x}^a` en assimilation de
214 Exemple : ``Xa = ADD.get("Analysis")[-1]``
217 *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
220 Exemple : ``J = ADD.get("CostFunctionJ")[:]``
223 *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
224 :math:`J^b`, c'est-à-dire de la partie écart à l'ébauche.
226 Exemple : ``Jb = ADD.get("CostFunctionJb")[:]``
229 *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
230 :math:`J^o`, c'est-à-dire de la partie écart à l'observation.
232 Exemple : ``Jo = ADD.get("CostFunctionJo")[:]``
234 Les sorties conditionnelles de l'algorithme sont les suivantes:
237 *Liste de vecteurs*. Chaque élément est un vecteur d'écart entre
238 l'ébauche et l'état optimal.
240 Exemple : ``bma = ADD.get("BMA")[-1]``
243 *Liste de vecteurs*. Chaque élément est le vecteur d'état optimal au pas de
244 temps courant au cours du déroulement de l'algorithme d'optimisation. Ce
245 n'est pas nécessairement le dernier état.
247 Exemple : ``Xo = ADD.get("CurrentOptimum")[:]``
250 *Liste de vecteurs*. Chaque élément est un vecteur d'état courant utilisé
251 au cours du déroulement de l'algorithme d'optimisation.
253 Exemple : ``Xs = ADD.get("CurrentState")[:]``
256 *Liste d'entiers*. Chaque élément est l'index d'itération de l'optimum
257 obtenu au cours du déroulement de l'algorithme d'optimisation. Ce n'est pas
258 nécessairement le numéro de la dernière itération.
260 Exemple : ``i = ADD.get("IndexOfOptimum")[-1]``
265 Références vers d'autres sections :
266 - :ref:`section_ref_algorithm_3DVAR`
267 - :ref:`section_ref_algorithm_KalmanFilter`
268 - :ref:`section_ref_algorithm_ExtendedKalmanFilter`
270 Références bibliographiques :