..
- Copyright (C) 2008-2018 EDF R&D
+ Copyright (C) 2008-2021 EDF R&D
This file is part of SALOME ADAO module.
Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
.. index:: single: 3DVAR
+.. index:: single: 3D-Var
.. _section_ref_algorithm_3DVAR:
Algorithme de calcul "*3DVAR*"
------------------------------
-Description
-+++++++++++
+.. ------------------------------------ ..
+.. include:: snippets/Header2Algo01.rst
Cet algorithme réalise une estimation d'état par minimisation variationnelle de
la fonctionnelle :math:`J` d'écart classique en assimilation de données
.. math:: J(\mathbf{x})=(\mathbf{x}-\mathbf{x}^b)^T.\mathbf{B}^{-1}.(\mathbf{x}-\mathbf{x}^b)+(\mathbf{y}^o-H(\mathbf{x}))^T.\mathbf{R}^{-1}.(\mathbf{y}^o-H(\mathbf{x}))
-qui est usuellement désignée comme la fonctionnelle "*3D-VAR*" (voir par exemple
-[Talagrand97]_).
-
-Commandes requises et optionnelles
-++++++++++++++++++++++++++++++++++
-
-.. index:: single: AlgorithmParameters
-.. index:: single: Background
-.. index:: single: BackgroundError
-.. index:: single: Observation
-.. index:: single: ObservationError
-.. index:: single: ObservationOperator
-.. index:: single: Minimizer
-.. index:: single: Bounds
-.. index:: single: MaximumNumberOfSteps
-.. index:: single: CostDecrementTolerance
-.. index:: single: ProjectedGradientTolerance
-.. index:: single: GradientNormTolerance
-.. index:: single: StoreSupplementaryCalculations
-.. index:: single: Quantiles
-.. index:: single: SetSeed
-.. index:: single: NumberOfSamplesForQuantiles
-.. index:: single: SimulationForQuantiles
-
-Les commandes requises générales, disponibles dans l'interface en édition, sont
-les suivantes:
-
- Background
- *Commande obligatoire*. Elle définit le vecteur d'ébauche ou
- d'initialisation, noté précédemment :math:`\mathbf{x}^b`. Sa valeur est
- définie comme un objet de type "*Vector*" ou de type "*VectorSerie*".
-
- BackgroundError
- *Commande obligatoire*. Elle définit la matrice de covariance des erreurs
- d'ébauche, notée précédemment :math:`\mathbf{B}`. Sa valeur est définie
- comme un objet de type "*Matrix*", de type "*ScalarSparseMatrix*", ou de
- type "*DiagonalSparseMatrix*".
-
- Observation
- *Commande obligatoire*. Elle définit le vecteur d'observation utilisé en
- assimilation de données ou en optimisation, et noté précédemment
- :math:`\mathbf{y}^o`. Sa valeur est définie comme un objet de type "*Vector*"
- ou de type "*VectorSerie*".
-
- ObservationError
- *Commande obligatoire*. Elle définit la matrice de covariance des erreurs
- d'ébauche, notée précédemment :math:`\mathbf{R}`. Sa valeur est définie
- comme un objet de type "*Matrix*", de type "*ScalarSparseMatrix*", ou de
- type "*DiagonalSparseMatrix*".
-
- ObservationOperator
- *Commande obligatoire*. Elle indique l'opérateur d'observation, noté
- précédemment :math:`H`, qui transforme les paramètres d'entrée
- :math:`\mathbf{x}` en résultats :math:`\mathbf{y}` qui sont à comparer aux
- observations :math:`\mathbf{y}^o`. Sa valeur est définie comme un objet de
- type "*Function*" ou de type "*Matrix*". Dans le cas du type "*Function*",
- différentes formes fonctionnelles peuvent être utilisées, comme décrit dans
- la section :ref:`section_ref_operator_requirements`. Si un contrôle
- :math:`U` est inclus dans le modèle d'observation, l'opérateur doit être
- appliqué à une paire :math:`(X,U)`.
-
-Les commandes optionnelles générales, disponibles dans l'interface en édition,
-sont indiquées dans la :ref:`section_ref_assimilation_keywords`. De plus, les
-paramètres de la commande "*AlgorithmParameters*" permettent d'indiquer les
-options particulières, décrites ci-après, de l'algorithme. On se reportera à la
-:ref:`section_ref_options_Algorithm_Parameters` pour le bon usage de cette
-commande.
-
-Les options de l'algorithme sont les suivantes:
-
- Minimizer
- Cette clé permet de changer le minimiseur pour l'optimiseur. Le choix par
- défaut est "LBFGSB", et les choix possibles sont "LBFGSB" (minimisation non
- linéaire sous contraintes, voir [Byrd95]_, [Morales11]_ et [Zhu97]_), "TNC"
- (minimisation non linéaire sous contraintes), "CG" (minimisation non
- linéaire sans contraintes), "BFGS" (minimisation non linéaire sans
- contraintes), "NCG" (minimisation de type gradient conjugué de Newton). Il
- est fortement conseillé de conserver la valeur par défaut.
-
- Exemple : ``{"Minimizer":"LBFGSB"}``
-
- Bounds
- Cette clé permet de définir des bornes supérieure et inférieure pour chaque
- variable d'état optimisée. Les bornes doivent être données par une liste de
- liste de paires de bornes inférieure/supérieure pour chaque variable, avec
- une valeur ``None`` chaque fois qu'il n'y a pas de borne. Les bornes
- peuvent toujours être spécifiées, mais seuls les optimiseurs sous
- contraintes les prennent en compte.
-
- Exemple : ``{"Bounds":[[2.,5.],[1.e-2,10.],[-30.,None],[None,None]]}``
-
- MaximumNumberOfSteps
- Cette clé indique le nombre maximum d'itérations possibles en optimisation
- itérative. Le défaut est 15000, qui est très similaire à une absence de
- limite sur les itérations. Il est ainsi recommandé d'adapter ce paramètre
- aux besoins pour des problèmes réels. Pour certains optimiseurs, le nombre
- de pas effectif d'arrêt peut être légèrement différent de la limite à cause
- d'exigences de contrôle interne de l'algorithme.
-
- Exemple : ``{"MaximumNumberOfSteps":100}``
-
- CostDecrementTolerance
- Cette clé indique une valeur limite, conduisant à arrêter le processus
- itératif d'optimisation lorsque la fonction coût décroît moins que cette
- tolérance au dernier pas. Le défaut est de 1.e-7, et il est recommandé
- de l'adapter aux besoins pour des problèmes réels.
-
- Exemple : ``{"CostDecrementTolerance":1.e-7}``
-
- ProjectedGradientTolerance
- Cette clé indique une valeur limite, conduisant à arrêter le processus
- itératif d'optimisation lorsque toutes les composantes du gradient projeté
- sont en-dessous de cette limite. C'est utilisé uniquement par les
- optimiseurs sous contraintes. Le défaut est -1, qui désigne le défaut
- interne de chaque optimiseur (usuellement 1.e-5), et il n'est pas recommandé
- de le changer.
-
- Exemple : ``{"ProjectedGradientTolerance":-1}``
-
- GradientNormTolerance
- Cette clé indique une valeur limite, conduisant à arrêter le processus
- itératif d'optimisation lorsque la norme du gradient est en dessous de cette
- limite. C'est utilisé uniquement par les optimiseurs sans contraintes. Le
- défaut est 1.e-5 et il n'est pas recommandé de le changer.
-
- Exemple : ``{"GradientNormTolerance":1.e-5}``
-
- StoreSupplementaryCalculations
- Cette liste indique les noms des variables supplémentaires qui peuvent être
- disponibles à la fin de l'algorithme. Cela implique potentiellement des
- calculs ou du stockage coûteux. La valeur par défaut est une liste vide,
- aucune de ces variables n'étant calculée et stockée par défaut. Les noms
- possibles sont dans la liste suivante : ["APosterioriCorrelations",
- "APosterioriCovariance", "APosterioriStandardDeviations",
- "APosterioriVariances", "BMA", "CostFunctionJ", "CostFunctionJb",
- "CostFunctionJo", "CostFunctionJAtCurrentOptimum",
- "CostFunctionJbAtCurrentOptimum", "CostFunctionJoAtCurrentOptimum",
- "CurrentOptimum", "CurrentState", "IndexOfOptimum", "Innovation",
- "InnovationAtCurrentState", "MahalanobisConsistency", "OMA", "OMB",
- "SigmaObs2", "SimulatedObservationAtBackground",
- "SimulatedObservationAtCurrentOptimum",
- "SimulatedObservationAtCurrentState", "SimulatedObservationAtOptimum",
- "SimulationQuantiles"].
-
- Exemple : ``{"StoreSupplementaryCalculations":["BMA", "Innovation"]}``
-
- Quantiles
- Cette liste indique les valeurs de quantile, entre 0 et 1, à estimer par
- simulation autour de l'état optimal. L'échantillonnage utilise des tirages
- aléatoires gaussiens multivariés, dirigés par la matrice de covariance a
- posteriori. Cette option n'est utile que si le calcul supplémentaire
- "SimulationQuantiles" a été choisi. La valeur par défaut est une liste vide.
-
- Exemple : ``{"Quantiles":[0.1,0.9]}``
-
- SetSeed
- Cette clé permet de donner un nombre entier pour fixer la graine du
- générateur aléatoire utilisé pour générer l'ensemble. Un valeur pratique est
- par exemple 1000. Par défaut, la graine est laissée non initialisée, et elle
- utilise ainsi l'initialisation par défaut de l'ordinateur.
-
- Exemple : ``{"SetSeed":1000}``
-
- NumberOfSamplesForQuantiles
- Cette clé indique le nombre de simulations effectuées pour estimer les
- quantiles. Cette option n'est utile que si le calcul supplémentaire
- "SimulationQuantiles" a été choisi. Le défaut est 100, ce qui suffit souvent
- pour une estimation correcte de quantiles courants à 5%, 10%, 90% ou 95%.
-
- Exemple : ``{"NumberOfSamplesForQuantiles":100}``
-
- SimulationForQuantiles
- Cette clé indique le type de simulation, linéaire (avec l'opérateur
- d'observation tangent appliqué sur des incréments de perturbations autour de
- l'état optimal) ou non-linéaire (avec l'opérateur d'observation standard
- appliqué aux états perturbés), que l'on veut faire pour chaque perturbation.
- Cela change essentiellement le temps de chaque simulation élémentaire,
- usuellement plus long en non-linéaire qu'en linéaire. Cette option n'est
- utile que si le calcul supplémentaire "SimulationQuantiles" a été choisi. La
- valeur par défaut est "Linear", et les choix possibles sont "Linear" et
- "NonLinear".
-
- Exemple : ``{"SimulationForQuantiles":"Linear"}``
-
-Informations et variables disponibles à la fin de l'algorithme
-++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
+qui est usuellement désignée comme la fonctionnelle "*3D-Var*" (voir par
+exemple [Talagrand97]_). Les dénominations "*3D-Var*", "*3D-VAR*" et "*3DVAR*"
+sont équivalentes.
-En sortie, après exécution de l'algorithme, on dispose d'informations et de
-variables issues du calcul. La description des
-:ref:`section_ref_output_variables` indique la manière de les obtenir par la
-méthode nommée ``get`` de la variable "*ADD*" du post-processing. Les variables
-d'entrée, mises à disposition de l'utilisateur en sortie pour faciliter
-l'écriture des procédures de post-processing, sont décrites dans
-l':ref:`subsection_r_o_v_Inventaire`.
+Il existe diverses variantes de cet algorithme. On propose ici les formulations
+stables et robustes suivantes :
-Les sorties non conditionnelles de l'algorithme sont les suivantes:
+.. index::
+ pair: Variant ; 3DVAR
+ pair: Variant ; 3DVAR-VAN
+ pair: Variant ; 3DVAR-Incr
+ pair: Variant ; 3DVAR-PSAS
- Analysis
- *Liste de vecteurs*. Chaque élément est un état optimal :math:`\mathbf{x}*`
- en optimisation ou une analyse :math:`\mathbf{x}^a` en assimilation de
- données.
+- "3DVAR" (3D Variational analysis, voir [Lorenc86]_, [LeDimet86]_, [Talagrand97]_), algorithme classique d'origine, très robuste, opérant dans l'espace du modèle,
+- "3DVAR-VAN" (3D Variational Analysis with No inversion of B, voir [Lorenc88]_), algorithme similaire, opérant dans l'espace du modèle, mais permettant d'éviter l'inversion de la matrice de covariance B,
+- "3DVAR-Incr" (Incremental 3DVAR, voir [Courtier94]_), algorithme plus économique que les précédents, mais impliquant une approximation des opérateurs non-linéaires,
+- "3DVAR-PSAS" (Physical-space Statistical Analysis Scheme for 3DVAR, voir [Courtier97]_, [Cohn98]_), algorithme parfois plus économique car opérant dans l'espace des observations, mais impliquant une approximation des opérateurs non-linéaires.
- Exemple : ``Xa = ADD.get("Analysis")[-1]``
+On recommande fortement d'utiliser le "3DVAR" d'origine. Les algorithmes
+"3DVAR" et "3DVAR-Incr" (et pas les autres) permettent la modification du point
+initial de leur minimisation, mais ce n'est pas recommandé.
- CostFunctionJ
- *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
- :math:`J`.
+.. ------------------------------------ ..
+.. include:: snippets/Header2Algo02.rst
- Exemple : ``J = ADD.get("CostFunctionJ")[:]``
+.. include:: snippets/Background.rst
- CostFunctionJb
- *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
- :math:`J^b`, c'est-à-dire de la partie écart à l'ébauche.
+.. include:: snippets/BackgroundError.rst
- Exemple : ``Jb = ADD.get("CostFunctionJb")[:]``
+.. include:: snippets/Observation.rst
- CostFunctionJo
- *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
- :math:`J^o`, c'est-à-dire de la partie écart à l'observation.
+.. include:: snippets/ObservationError.rst
- Exemple : ``Jo = ADD.get("CostFunctionJo")[:]``
+.. include:: snippets/ObservationOperator.rst
-Les sorties conditionnelles de l'algorithme sont les suivantes:
+.. ------------------------------------ ..
+.. include:: snippets/Header2Algo03AdOp.rst
- APosterioriCorrelations
- *Liste de matrices*. Chaque élément est une matrice de corrélations des
- erreurs *a posteriori* de l'état optimal, issue de la matrice
- :math:`\mathbf{A}*` des covariances.
+.. include:: snippets/BoundsWithNone.rst
- Exemple : ``C = ADD.get("APosterioriCorrelations")[-1]``
+.. include:: snippets/CostDecrementTolerance.rst
- APosterioriCovariance
- *Liste de matrices*. Chaque élément est une matrice :math:`\mathbf{A}*` de
- covariances des erreurs *a posteriori* de l'état optimal.
+.. include:: snippets/GradientNormTolerance.rst
- Exemple : ``A = ADD.get("APosterioriCovariance")[-1]``
+.. include:: snippets/InitializationPoint.rst
- APosterioriStandardDeviations
- *Liste de matrices*. Chaque élément est une matrice diagonale d'écarts-types
- des erreurs *a posteriori* de l'état optimal, issue de la matrice
- :math:`\mathbf{A}*` des covariances.
+.. include:: snippets/MaximumNumberOfSteps.rst
- Exemple : ``S = ADD.get("APosterioriStandardDeviations")[-1]``
+.. include:: snippets/Minimizer_xDVAR.rst
- APosterioriVariances
- *Liste de matrices*. Chaque élément est une matrice diagonale de variances
- des erreurs *a posteriori* de l'état optimal, issue de la matrice
- :math:`\mathbf{A}*` des covariances.
+.. include:: snippets/NumberOfSamplesForQuantiles.rst
- Exemple : ``V = ADD.get("APosterioriVariances")[-1]``
+.. include:: snippets/ProjectedGradientTolerance.rst
- BMA
- *Liste de vecteurs*. Chaque élément est un vecteur d'écart entre
- l'ébauche et l'état optimal.
+.. include:: snippets/Quantiles.rst
- Exemple : ``bma = ADD.get("BMA")[-1]``
+.. include:: snippets/SetSeed.rst
- CostFunctionJAtCurrentOptimum
- *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
- :math:`J`. A chaque pas, la valeur correspond à l'état optimal trouvé depuis
- le début.
+.. include:: snippets/SimulationForQuantiles.rst
- Exemple : ``JACO = ADD.get("CostFunctionJAtCurrentOptimum")[:]``
+.. include:: snippets/StateBoundsForQuantilesWithNone.rst
- CostFunctionJbAtCurrentOptimum
- *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
- :math:`J^b`, c'est-à-dire de la partie écart à l'ébauche. A chaque pas, la
- valeur correspond à l'état optimal trouvé depuis le début.
+StoreSupplementaryCalculations
+ .. index:: single: StoreSupplementaryCalculations
- Exemple : ``JbACO = ADD.get("CostFunctionJbAtCurrentOptimum")[:]``
+ *Liste de noms*. Cette liste indique les noms des variables supplémentaires
+ qui peuvent être disponibles au cours du déroulement ou à la fin de
+ l'algorithme, si elles sont initialement demandées par l'utilisateur. Cela
+ implique potentiellement des calculs ou du stockage coûteux. La valeur par
+ défaut est une liste vide, aucune de ces variables n'étant calculée et
+ stockée par défaut sauf les variables inconditionnelles. Les noms possibles
+ sont dans la liste suivante : [
+ "Analysis",
+ "APosterioriCorrelations",
+ "APosterioriCovariance",
+ "APosterioriStandardDeviations",
+ "APosterioriVariances",
+ "BMA",
+ "CostFunctionJ",
+ "CostFunctionJAtCurrentOptimum",
+ "CostFunctionJb",
+ "CostFunctionJbAtCurrentOptimum",
+ "CostFunctionJo",
+ "CostFunctionJoAtCurrentOptimum",
+ "CurrentIterationNumber",
+ "CurrentOptimum",
+ "CurrentState",
+ "ForecastState",
+ "IndexOfOptimum",
+ "Innovation",
+ "InnovationAtCurrentState",
+ "JacobianMatrixAtBackground",
+ "JacobianMatrixAtOptimum",
+ "KalmanGainAtOptimum",
+ "MahalanobisConsistency",
+ "OMA",
+ "OMB",
+ "SampledStateForQuantiles",
+ "SigmaObs2",
+ "SimulatedObservationAtBackground",
+ "SimulatedObservationAtCurrentOptimum",
+ "SimulatedObservationAtCurrentState",
+ "SimulatedObservationAtOptimum",
+ "SimulationQuantiles",
+ ].
- CostFunctionJoAtCurrentOptimum
- *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
- :math:`J^o`, c'est-à-dire de la partie écart à l'observation. A chaque pas,
- la valeur correspond à l'état optimal trouvé depuis le début.
+ Exemple :
+ ``{"StoreSupplementaryCalculations":["BMA", "CurrentState"]}``
- Exemple : ``JoACO = ADD.get("CostFunctionJoAtCurrentOptimum")[:]``
+.. include:: snippets/Variant_3DVAR.rst
- CurrentOptimum
- *Liste de vecteurs*. Chaque élément est le vecteur d'état optimal au pas de
- temps courant au cours du déroulement de l'algorithme d'optimisation. Ce
- n'est pas nécessairement le dernier état.
+.. ------------------------------------ ..
+.. include:: snippets/Header2Algo04.rst
- Exemple : ``Xo = ADD.get("CurrentOptimum")[:]``
+.. include:: snippets/Analysis.rst
- CurrentState
- *Liste de vecteurs*. Chaque élément est un vecteur d'état courant utilisé
- au cours du déroulement de l'algorithme d'optimisation.
+.. include:: snippets/CostFunctionJ.rst
- Exemple : ``Xs = ADD.get("CurrentState")[:]``
+.. include:: snippets/CostFunctionJb.rst
- IndexOfOptimum
- *Liste d'entiers*. Chaque élément est l'index d'itération de l'optimum
- obtenu au cours du déroulement de l'algorithme d'optimisation. Ce n'est pas
- nécessairement le numéro de la dernière itération.
+.. include:: snippets/CostFunctionJo.rst
- Exemple : ``i = ADD.get("IndexOfOptimum")[-1]``
+.. ------------------------------------ ..
+.. include:: snippets/Header2Algo05.rst
- Innovation
- *Liste de vecteurs*. Chaque élément est un vecteur d'innovation, qui est
- en statique l'écart de l'optimum à l'ébauche, et en dynamique l'incrément
- d'évolution.
+.. include:: snippets/Analysis.rst
- Exemple : ``d = ADD.get("Innovation")[-1]``
+.. include:: snippets/APosterioriCorrelations.rst
- InnovationAtCurrentState
- *Liste de vecteurs*. Chaque élément est un vecteur d'innovation à l'état
- courant.
+.. include:: snippets/APosterioriCovariance.rst
- Exemple : ``ds = ADD.get("InnovationAtCurrentState")[-1]``
+.. include:: snippets/APosterioriStandardDeviations.rst
- MahalanobisConsistency
- *Liste de valeurs*. Chaque élément est une valeur de l'indicateur de
- qualité de Mahalanobis.
+.. include:: snippets/APosterioriVariances.rst
- Exemple : ``m = ADD.get("MahalanobisConsistency")[-1]``
+.. include:: snippets/BMA.rst
- OMA
- *Liste de vecteurs*. Chaque élément est un vecteur d'écart entre
- l'observation et l'état optimal dans l'espace des observations.
+.. include:: snippets/CostFunctionJ.rst
- Exemple : ``oma = ADD.get("OMA")[-1]``
+.. include:: snippets/CostFunctionJAtCurrentOptimum.rst
- OMB
- *Liste de vecteurs*. Chaque élément est un vecteur d'écart entre
- l'observation et l'état d'ébauche dans l'espace des observations.
+.. include:: snippets/CostFunctionJb.rst
- Exemple : ``omb = ADD.get("OMB")[-1]``
+.. include:: snippets/CostFunctionJbAtCurrentOptimum.rst
- SigmaObs2
- *Liste de valeurs*. Chaque élément est une valeur de l'indicateur de
- qualité :math:`(\sigma^o)^2` de la partie observation.
+.. include:: snippets/CostFunctionJo.rst
- Exemple : ``so2 = ADD.get("SigmaObs")[-1]``
+.. include:: snippets/CostFunctionJoAtCurrentOptimum.rst
- SimulatedObservationAtBackground
- *Liste de vecteurs*. Chaque élément est un vecteur d'observation simulé à
- partir de l'ébauche :math:`\mathbf{x}^b`.
+.. include:: snippets/CurrentIterationNumber.rst
- Exemple : ``hxb = ADD.get("SimulatedObservationAtBackground")[-1]``
+.. include:: snippets/CurrentOptimum.rst
- SimulatedObservationAtCurrentOptimum
- *Liste de vecteurs*. Chaque élément est un vecteur d'observation simulé à
- partir de l'état optimal au pas de temps courant au cours du déroulement de
- l'algorithme d'optimisation, c'est-à-dire dans l'espace des observations.
+.. include:: snippets/CurrentState.rst
- Exemple : ``hxo = ADD.get("SimulatedObservationAtCurrentOptimum")[-1]``
+.. include:: snippets/ForecastState.rst
- SimulatedObservationAtCurrentState
- *Liste de vecteurs*. Chaque élément est un vecteur d'observation simulé à
- partir de l'état courant, c'est-à-dire dans l'espace des observations.
+.. include:: snippets/IndexOfOptimum.rst
- Exemple : ``hxs = ADD.get("SimulatedObservationAtCurrentState")[-1]``
+.. include:: snippets/Innovation.rst
- SimulatedObservationAtOptimum
- *Liste de vecteurs*. Chaque élément est un vecteur d'observation simulé à
- partir de l'analyse ou de l'état optimal :math:`\mathbf{x}^a`.
+.. include:: snippets/InnovationAtCurrentState.rst
- Exemple : ``hxa = ADD.get("SimulatedObservationAtOptimum")[-1]``
+.. include:: snippets/JacobianMatrixAtBackground.rst
- SimulationQuantiles
- *Liste de vecteurs*. Chaque élément est un vecteur correspondant à l'état
- observé qui réalise le quantile demandé, dans le même ordre que les
- quantiles requis par l'utilisateur.
+.. include:: snippets/JacobianMatrixAtOptimum.rst
- Exemple : ``sQuantiles = ADD.get("SimulationQuantiles")[:]``
+.. include:: snippets/KalmanGainAtOptimum.rst
-Voir aussi
-++++++++++
+.. include:: snippets/MahalanobisConsistency.rst
-Références vers d'autres sections :
- - :ref:`section_ref_algorithm_Blue`
- - :ref:`section_ref_algorithm_ExtendedBlue`
- - :ref:`section_ref_algorithm_LinearityTest`
+.. include:: snippets/OMA.rst
-Références bibliographiques :
- - [Byrd95]_
- - [Morales11]_
- - [Talagrand97]_
- - [Zhu97]_
+.. include:: snippets/OMB.rst
+
+.. include:: snippets/SampledStateForQuantiles.rst
+
+.. include:: snippets/SigmaObs2.rst
+
+.. include:: snippets/SimulatedObservationAtBackground.rst
+
+.. include:: snippets/SimulatedObservationAtCurrentOptimum.rst
+
+.. include:: snippets/SimulatedObservationAtCurrentState.rst
+
+.. include:: snippets/SimulatedObservationAtOptimum.rst
+
+.. include:: snippets/SimulationQuantiles.rst
+
+.. ------------------------------------ ..
+.. include:: snippets/Header2Algo09.rst
+
+.. include:: scripts/simple_3DVAR.rst
+
+.. literalinclude:: scripts/simple_3DVAR.py
+
+.. include:: snippets/Header2Algo10.rst
+
+.. literalinclude:: scripts/simple_3DVAR.res
+
+.. ------------------------------------ ..
+.. include:: snippets/Header2Algo06.rst
+
+- :ref:`section_ref_algorithm_Blue`
+- :ref:`section_ref_algorithm_ExtendedBlue`
+- :ref:`section_ref_algorithm_LinearityTest`
+
+.. ------------------------------------ ..
+.. include:: snippets/Header2Algo07.rst
+
+- [Byrd95]_
+- [Cohn98]_
+- [Courtier94]_
+- [LeDimet86]_
+- [Lorenc86]_
+- [Lorenc88]_
+- [Morales11]_
+- [Talagrand97]_
+- [Zhu97]_