..
- Copyright (C) 2008-2015 EDF R&D
+ Copyright (C) 2008-2018 EDF R&D
This file is part of SALOME ADAO module.
Description
+++++++++++
-Cet algorithme réalise une estimation d'état par minimisation variationnelle de
-la fonctionnelle :math:`J` d'écart classique de "Moindres Carrés" pondérés:
+Cet algorithme réalise une estimation d'état par minimisation variationnelle de
+la fonctionnelle :math:`J` d'écart classique de "Moindres Carrés" pondérés:
.. math:: J(\mathbf{x})=(\mathbf{y}^o-\mathbf{H}.\mathbf{x})^T.\mathbf{R}^{-1}.(\mathbf{y}^o-\mathbf{H}.\mathbf{x})
-Il est similaire à l':ref:`section_ref_algorithm_3DVAR` amputé de sa partie
-ébauche. L'ébauche, requise dans l'interface, ne sert que de point initial pour
+Il est similaire à l':ref:`section_ref_algorithm_3DVAR` privé de sa partie
+ébauche. L'ébauche, requise dans l'interface, ne sert que de point initial pour
la minimisation variationnelle.
-Dans tous les cas, il est recommandé de lui préférer
-l':ref:`section_ref_algorithm_3DVAR` pour sa stabilité comme pour son
+Dans tous les cas, il est recommandé de lui préférer
+l':ref:`section_ref_algorithm_3DVAR` pour sa stabilité comme pour son
comportement lors de l'optimisation.
Commandes requises et optionnelles
++++++++++++++++++++++++++++++++++
-.. index:: single: Background
-.. index:: single: Observation
-.. index:: single: ObservationError
-.. index:: single: ObservationOperator
-.. index:: single: Minimizer
-.. index:: single: Bounds
-.. index:: single: MaximumNumberOfSteps
-.. index:: single: CostDecrementTolerance
-.. index:: single: ProjectedGradientTolerance
-.. index:: single: GradientNormTolerance
-.. index:: single: StoreInternalVariables
-.. index:: single: StoreSupplementaryCalculations
-
-Les commandes requises générales, disponibles dans l'interface en édition, sont
+Les commandes requises générales, disponibles dans l'interface en édition, sont
les suivantes:
- Background
- *Commande obligatoire*. Elle définit le vecteur d'ébauche ou
- d'initialisation, noté précédemment :math:`\mathbf{x}^b`. Sa valeur est
- définie comme un objet de type "*Vector*" ou de type "*VectorSerie*".
-
- Observation
- *Commande obligatoire*. Elle définit le vecteur d'observation utilisé en
- assimilation de données ou en optimisation, et noté précédemment
- :math:`\mathbf{y}^o`. Sa valeur est définie comme un objet de type "*Vector*"
- ou de type "*VectorSerie*".
-
- ObservationError
- *Commande obligatoire*. Elle définit la matrice de covariance des erreurs
- d'ébauche, notée précédemment :math:`\mathbf{R}`. Sa valeur est définie
- comme un objet de type "*Matrix*", de type "*ScalarSparseMatrix*", ou de
- type "*DiagonalSparseMatrix*".
-
- ObservationOperator
- *Commande obligatoire*. Elle indique l'opérateur d'observation, noté
- précédemment :math:`H`, qui transforme les paramètres d'entrée
- :math:`\mathbf{x}` en résultats :math:`\mathbf{y}` qui sont à comparer aux
- observations :math:`\mathbf{y}^o`. Sa valeur est définie comme un objet de
- type "*Function*" ou de type "*Matrix*". Dans le cas du type "*Function*",
- différentes formes fonctionnelles peuvent être utilisées, comme décrit dans
- la section :ref:`section_ref_operator_requirements`. Si un contrôle
- :math:`U` est inclus dans le modèle d'observation, l'opérateur doit être
- appliqué à une paire :math:`(X,U)`.
-
-Les commandes optionnelles générales, disponibles dans l'interface en édition,
-sont indiquées dans la :ref:`section_ref_assimilation_keywords`. En particulier,
-la commande optionnelle "*AlgorithmParameters*" permet d'indiquer les options
-particulières, décrites ci-après, de l'algorithme. On se reportera à la
-:ref:`section_ref_options_AlgorithmParameters` pour le bon usage de cette
+ .. include:: snippets/Background.rst
+
+ .. include:: snippets/Observation.rst
+
+ .. include:: snippets/ObservationError.rst
+
+ .. include:: snippets/ObservationOperator.rst
+
+Les commandes optionnelles générales, disponibles dans l'interface en édition,
+sont indiquées dans la :ref:`section_ref_assimilation_keywords`. De plus, les
+paramètres de la commande "*AlgorithmParameters*" permettent d'indiquer les
+options particulières, décrites ci-après, de l'algorithme. On se reportera à la
+:ref:`section_ref_options_Algorithm_Parameters` pour le bon usage de cette
commande.
Les options de l'algorithme sont les suivantes:
Minimizer
- Cette clé permet de changer le minimiseur pour l'optimiseur. Le choix par
- défaut est "LBFGSB", et les choix possibles sont "LBFGSB" (minimisation non
- linéaire sous contraintes, voir [Byrd95]_, [Morales11]_ et [Zhu97]_), "TNC"
- (minimisation non linéaire sous contraintes), "CG" (minimisation non
- linéaire sans contraintes), "BFGS" (minimisation non linéaire sans
- contraintes), "NCG" (minimisation de type gradient conjugué de Newton), "LM"
- (minimisation non linéaire de type Levenberg-Marquard). Il est fortement
- conseillé de conserver la valeur par défaut.
-
- Exemple : ``{"Minimizer":"LBFGSB"}``
-
- Bounds
- Cette clé permet de définir des bornes supérieure et inférieure pour
- chaque variable d'état optimisée. Les bornes doivent être données par une
- liste de liste de paires de bornes inférieure/supérieure pour chaque
- variable, avec une valeur ``None`` chaque fois qu'il n'y a pas de borne. Les
- bornes peuvent toujours être spécifiées, mais seuls les optimiseurs sous
- contraintes les prennent en compte.
-
- Exemple : ``{"Bounds":[[2.,5.],[1.e-2,10.],[-30.,None],[None,None]]}``
-
- MaximumNumberOfSteps
- Cette clé indique le nombre maximum d'itérations possibles en optimisation
- itérative. Le défaut est 15000, qui est très similaire à une absence de
- limite sur les itérations. Il est ainsi recommandé d'adapter ce paramètre
- aux besoins pour des problèmes réels. Pour certains optimiseurs, le nombre
- de pas effectif d'arrêt peut être légèrement différent de la limite à cause
- d'exigences de contrôle interne de l'algorithme.
-
- Exemple : ``{"MaximumNumberOfSteps":100}``
-
- CostDecrementTolerance
- Cette clé indique une valeur limite, conduisant à arrêter le processus
- itératif d'optimisation lorsque la fonction coût décroît moins que cette
- tolérance au dernier pas. Le défaut est de 1.e-7, et il est recommandé
- de l'adapter aux besoins pour des problèmes réels.
-
- Exemple : ``{"CostDecrementTolerance":1.e-7}``
-
- ProjectedGradientTolerance
- Cette clé indique une valeur limite, conduisant à arrêter le processus
- itératif d'optimisation lorsque toutes les composantes du gradient projeté
- sont en-dessous de cette limite. C'est utilisé uniquement par les
- optimiseurs sous contraintes. Le défaut est -1, qui désigne le défaut
- interne de chaque optimiseur (usuellement 1.e-5), et il n'est pas recommandé
- de le changer.
-
- Exemple : ``{"ProjectedGradientTolerance":-1}``
-
- GradientNormTolerance
- Cette clé indique une valeur limite, conduisant à arrêter le processus
- itératif d'optimisation lorsque la norme du gradient est en dessous de cette
- limite. C'est utilisé uniquement par les optimiseurs sans contraintes. Le
- défaut est 1.e-5 et il n'est pas recommandé de le changer.
-
- Exemple : ``{"GradientNormTolerance":1.e-5}``
-
- StoreInternalVariables
- Cette clé booléenne permet de stocker les variables internes par défaut,
- principalement l'état courant lors d'un processus itératif. Attention, cela
- peut être un choix numériquement coûteux dans certains cas de calculs. La
- valeur par défaut est "False".
-
- Exemple : ``{"StoreInternalVariables":True}``
+ .. index:: single: Minimizer
- StoreSupplementaryCalculations
- Cette liste indique les noms des variables supplémentaires qui peuvent être
- disponibles à la fin de l'algorithme. Cela implique potentiellement des
- calculs ou du stockage coûteux. La valeur par défaut est une liste vide,
- aucune de ces variables n'étant calculée et stockée par défaut. Les noms
- possibles sont dans la liste suivante : ["APosterioriCovariance", "BMA",
- "OMA", "OMB", "Innovation", "SigmaObs2", "MahalanobisConsistency"].
+ Cette clé permet de changer le minimiseur pour l'optimiseur. Le choix par
+ défaut est "LBFGSB", et les choix possibles sont "LBFGSB" (minimisation non
+ linéaire sous contraintes, voir [Byrd95]_, [Morales11]_ et [Zhu97]_), "TNC"
+ (minimisation non linéaire sous contraintes), "CG" (minimisation non
+ linéaire sans contraintes), "BFGS" (minimisation non linéaire sans
+ contraintes), "NCG" (minimisation de type gradient conjugué de Newton), "LM"
+ (minimisation non linéaire de type Levenberg-Marquard). Il est fortement
+ conseillé de conserver la valeur par défaut.
+
+ Exemple :
+ ``{"Minimizer":"LBFGSB"}``
+
+ .. include:: snippets/BoundsWithNone.rst
+
+ .. include:: snippets/MaximumNumberOfSteps.rst
+
+ .. include:: snippets/CostDecrementTolerance.rst
- Exemple : ``{"StoreSupplementaryCalculations":["BMA","Innovation"]}``
+ .. include:: snippets/ProjectedGradientTolerance.rst
+
+ .. include:: snippets/GradientNormTolerance.rst
+
+ StoreSupplementaryCalculations
+ .. index:: single: StoreSupplementaryCalculations
+
+ Cette liste indique les noms des variables supplémentaires qui peuvent être
+ disponibles à la fin de l'algorithme. Cela implique potentiellement des
+ calculs ou du stockage coûteux. La valeur par défaut est une liste vide,
+ aucune de ces variables n'étant calculée et stockée par défaut. Les noms
+ possibles sont dans la liste suivante : ["BMA", "CostFunctionJ",
+ "CostFunctionJb", "CostFunctionJo", "CostFunctionJAtCurrentOptimum",
+ "CostFunctionJbAtCurrentOptimum", "CostFunctionJoAtCurrentOptimum",
+ "CurrentState", "CurrentOptimum", "IndexOfOptimum", "Innovation",
+ "InnovationAtCurrentState", "OMA", "OMB",
+ "SimulatedObservationAtBackground", "SimulatedObservationAtCurrentState",
+ "SimulatedObservationAtOptimum", "SimulatedObservationAtCurrentOptimum"].
+
+ Exemple :
+ ``{"StoreSupplementaryCalculations":["BMA", "Innovation"]}``
*Astuce pour cet algorithme :*
Comme la commande *"BackgroundError"* est requise pour TOUS les algorithmes
- de calcul dans l'interface, vous devez fournir une valeur, malgré le fait
- que cette commande n'est pas requise pour cet algorithme, et ne sera pas
- utilisée. La manière la plus simple est de donner "1" comme un STRING.
+ de calcul dans l'interface graphique, vous devez fournir une valeur, malgré
+ le fait que cette commande n'est pas requise pour cet algorithme, et ne
+ sera pas utilisée. La manière la plus simple est de donner "1" comme un
+ STRING.
+
+Informations et variables disponibles à la fin de l'algorithme
+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
+
+En sortie, après exécution de l'algorithme, on dispose d'informations et de
+variables issues du calcul. La description des
+:ref:`section_ref_output_variables` indique la manière de les obtenir par la
+méthode nommée ``get`` de la variable "*ADD*" du post-processing. Les variables
+d'entrée, mises à disposition de l'utilisateur en sortie pour faciliter
+l'écriture des procédures de post-processing, sont décrites dans
+l':ref:`subsection_r_o_v_Inventaire`.
+
+Les sorties non conditionnelles de l'algorithme sont les suivantes:
+
+ .. include:: snippets/Analysis.rst
+
+ .. include:: snippets/CostFunctionJ.rst
+
+ .. include:: snippets/CostFunctionJb.rst
+
+ .. include:: snippets/CostFunctionJo.rst
+
+Les sorties conditionnelles de l'algorithme sont les suivantes:
+
+ .. include:: snippets/BMA.rst
+
+ .. include:: snippets/CostFunctionJAtCurrentOptimum.rst
+
+ .. include:: snippets/CostFunctionJbAtCurrentOptimum.rst
+
+ .. include:: snippets/CostFunctionJoAtCurrentOptimum.rst
+
+ .. include:: snippets/CurrentOptimum.rst
+
+ .. include:: snippets/CurrentState.rst
+
+ .. include:: snippets/IndexOfOptimum.rst
+
+ .. include:: snippets/Innovation.rst
+
+ .. include:: snippets/InnovationAtCurrentState.rst
+
+ .. include:: snippets/OMA.rst
+
+ .. include:: snippets/OMB.rst
+
+ .. include:: snippets/SimulatedObservationAtBackground.rst
+
+ .. include:: snippets/SimulatedObservationAtCurrentOptimum.rst
+
+ .. include:: snippets/SimulatedObservationAtCurrentState.rst
+
+ .. include:: snippets/SimulatedObservationAtOptimum.rst
Voir aussi
++++++++++
-Références vers d'autres sections :
+Références vers d'autres sections :
- :ref:`section_ref_algorithm_3DVAR`
-Références bibliographiques :
+Références bibliographiques :
- [Byrd95]_
- [Morales11]_
+ - [Zhu97]_