Salome HOME
Documentation and functions minor update correction
[modules/adao.git] / doc / fr / ref_algorithm_NonLinearLeastSquares.rst
index 16d9ed60069758468653928e9dcd80ed2fe86e91..c0f8dfe1f2f0bdc615f517c89ca471e540eb01aa 100644 (file)
@@ -1,5 +1,5 @@
 ..
-   Copyright (C) 2008-2017 EDF R&D
+   Copyright (C) 2008-2018 EDF R&D
 
    This file is part of SALOME ADAO module.
 
@@ -46,49 +46,16 @@ comportement lors de l'optimisation.
 Commandes requises et optionnelles
 ++++++++++++++++++++++++++++++++++
 
-.. index:: single: AlgorithmParameters
-.. index:: single: Background
-.. index:: single: Observation
-.. index:: single: ObservationError
-.. index:: single: ObservationOperator
-.. index:: single: Minimizer
-.. index:: single: Bounds
-.. index:: single: MaximumNumberOfSteps
-.. index:: single: CostDecrementTolerance
-.. index:: single: ProjectedGradientTolerance
-.. index:: single: GradientNormTolerance
-.. index:: single: StoreSupplementaryCalculations
-
 Les commandes requises générales, disponibles dans l'interface en édition, sont
 les suivantes:
 
-  Background
-    *Commande obligatoire*. Elle définit le vecteur d'ébauche ou
-    d'initialisation, noté précédemment :math:`\mathbf{x}^b`. Sa valeur est
-    définie comme un objet de type "*Vector*" ou de type "*VectorSerie*".
-
-  Observation
-    *Commande obligatoire*. Elle définit le vecteur d'observation utilisé en
-    assimilation de données ou en optimisation, et noté précédemment
-    :math:`\mathbf{y}^o`. Sa valeur est définie comme un objet de type "*Vector*"
-    ou de type "*VectorSerie*".
-
-  ObservationError
-    *Commande obligatoire*. Elle définit la matrice de covariance des erreurs
-    d'ébauche, notée précédemment :math:`\mathbf{R}`. Sa valeur est définie
-    comme un objet de type "*Matrix*", de type "*ScalarSparseMatrix*", ou de
-    type "*DiagonalSparseMatrix*".
-
-  ObservationOperator
-    *Commande obligatoire*. Elle indique l'opérateur d'observation, noté
-    précédemment :math:`H`, qui transforme les paramètres d'entrée
-    :math:`\mathbf{x}` en résultats :math:`\mathbf{y}` qui sont à comparer aux
-    observations :math:`\mathbf{y}^o`. Sa valeur est définie comme un objet de
-    type "*Function*" ou de type "*Matrix*". Dans le cas du type "*Function*",
-    différentes formes fonctionnelles peuvent être utilisées, comme décrit dans
-    la section :ref:`section_ref_operator_requirements`. Si un contrôle
-    :math:`U` est inclus dans le modèle d'observation, l'opérateur doit être
-    appliqué à une paire :math:`(X,U)`.
+  .. include:: snippets/Background.rst
+
+  .. include:: snippets/Observation.rst
+
+  .. include:: snippets/ObservationError.rst
+
+  .. include:: snippets/ObservationOperator.rst
 
 Les commandes optionnelles générales, disponibles dans l'interface en édition,
 sont indiquées dans la :ref:`section_ref_assimilation_keywords`. De plus, les
@@ -100,6 +67,8 @@ commande.
 Les options de l'algorithme sont les suivantes:
 
   Minimizer
+    .. index:: single: Minimizer
+
     Cette clé permet de changer le minimiseur pour l'optimiseur. Le choix par
     défaut est "LBFGSB", et les choix possibles sont "LBFGSB" (minimisation non
     linéaire sous contraintes, voir [Byrd95]_, [Morales11]_ et [Zhu97]_), "TNC"
@@ -109,55 +78,22 @@ Les options de l'algorithme sont les suivantes:
     (minimisation non linéaire de type Levenberg-Marquard). Il est fortement
     conseillé de conserver la valeur par défaut.
 
-    Exemple : ``{"Minimizer":"LBFGSB"}``
-
-  Bounds
-    Cette clé permet de définir des bornes supérieure et inférieure pour chaque
-    variable d'état optimisée. Les bornes doivent être données par une liste de
-    liste de paires de bornes inférieure/supérieure pour chaque variable, avec
-    une valeur ``None`` chaque fois qu'il n'y a pas de borne. Les bornes
-    peuvent toujours être spécifiées, mais seuls les optimiseurs sous
-    contraintes les prennent en compte.
+    Exemple :
+    ``{"Minimizer":"LBFGSB"}``
 
-    Exemple : ``{"Bounds":[[2.,5.],[1.e-2,10.],[-30.,None],[None,None]]}``
+  .. include:: snippets/BoundsWithNone.rst
 
-  MaximumNumberOfSteps
-    Cette clé indique le nombre maximum d'itérations possibles en optimisation
-    itérative. Le défaut est 15000, qui est très similaire à une absence de
-    limite sur les itérations. Il est ainsi recommandé d'adapter ce paramètre
-    aux besoins pour des problèmes réels. Pour certains optimiseurs, le nombre
-    de pas effectif d'arrêt peut être légèrement différent de la limite à cause
-    d'exigences de contrôle interne de l'algorithme.
+  .. include:: snippets/MaximumNumberOfSteps.rst
 
-    Exemple : ``{"MaximumNumberOfSteps":100}``
+  .. include:: snippets/CostDecrementTolerance.rst
 
-  CostDecrementTolerance
-    Cette clé indique une valeur limite, conduisant à arrêter le processus
-    itératif d'optimisation lorsque la fonction coût décroît moins que cette
-    tolérance au dernier pas. Le défaut est de 1.e-7, et il est recommandé
-    de l'adapter aux besoins pour des problèmes réels.
+  .. include:: snippets/ProjectedGradientTolerance.rst
 
-    Exemple : ``{"CostDecrementTolerance":1.e-7}``
-
-  ProjectedGradientTolerance
-    Cette clé indique une valeur limite, conduisant à arrêter le processus
-    itératif d'optimisation lorsque toutes les composantes du gradient projeté
-    sont en-dessous de cette limite. C'est utilisé uniquement par les
-    optimiseurs sous contraintes. Le défaut est -1, qui désigne le défaut
-    interne de chaque optimiseur (usuellement 1.e-5), et il n'est pas recommandé
-    de le changer.
-
-    Exemple : ``{"ProjectedGradientTolerance":-1}``
-
-  GradientNormTolerance
-    Cette clé indique une valeur limite, conduisant à arrêter le processus
-    itératif d'optimisation lorsque la norme du gradient est en dessous de cette
-    limite. C'est utilisé uniquement par les optimiseurs sans contraintes. Le
-    défaut est 1.e-5 et il n'est pas recommandé de le changer.
-
-    Exemple : ``{"GradientNormTolerance":1.e-5}``
+  .. include:: snippets/GradientNormTolerance.rst
 
   StoreSupplementaryCalculations
+    .. index:: single: StoreSupplementaryCalculations
+
     Cette liste indique les noms des variables supplémentaires qui peuvent être
     disponibles à la fin de l'algorithme. Cela implique potentiellement des
     calculs ou du stockage coûteux. La valeur par défaut est une liste vide,
@@ -170,14 +106,16 @@ Les options de l'algorithme sont les suivantes:
     "SimulatedObservationAtBackground", "SimulatedObservationAtCurrentState",
     "SimulatedObservationAtOptimum", "SimulatedObservationAtCurrentOptimum"].
 
-    Exemple : ``{"StoreSupplementaryCalculations":["BMA", "Innovation"]}``
+    Exemple :
+    ``{"StoreSupplementaryCalculations":["BMA", "Innovation"]}``
 
 *Astuce pour cet algorithme :*
 
     Comme la commande *"BackgroundError"* est requise pour TOUS les algorithmes
-    de calcul dans l'interface, vous devez fournir une valeur, malgré le fait
-    que cette commande n'est pas requise pour cet algorithme, et ne sera pas
-    utilisée. La manière la plus simple est de donner "1" comme un STRING.
+    de calcul dans l'interface graphique, vous devez fournir une valeur, malgré
+    le fait que cette commande n'est pas requise pour cet algorithme, et ne
+    sera pas utilisée. La manière la plus simple est de donner "1" comme un
+    STRING.
 
 Informations et variables disponibles à la fin de l'algorithme
 ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
@@ -192,101 +130,45 @@ l':ref:`subsection_r_o_v_Inventaire`.
 
 Les sorties non conditionnelles de l'algorithme sont les suivantes:
 
-  Analysis
-    *Liste de vecteurs*. Chaque élément est un état optimal :math:`\mathbf{x}*`
-    en optimisation ou une analyse :math:`\mathbf{x}^a` en assimilation de
-    données.
+  .. include:: snippets/Analysis.rst
 
-    Exemple : ``Xa = ADD.get("Analysis")[-1]``
+  .. include:: snippets/CostFunctionJ.rst
 
-  CostFunctionJ
-    *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
-    :math:`J`.
+  .. include:: snippets/CostFunctionJb.rst
 
-    Exemple : ``J = ADD.get("CostFunctionJ")[:]``
-
-  CostFunctionJb
-    *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
-    :math:`J^b`, c'est-à-dire de la partie écart à l'ébauche.
-
-    Exemple : ``Jb = ADD.get("CostFunctionJb")[:]``
-
-  CostFunctionJo
-    *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
-    :math:`J^o`, c'est-à-dire de la partie écart à l'observation.
-
-    Exemple : ``Jo = ADD.get("CostFunctionJo")[:]``
+  .. include:: snippets/CostFunctionJo.rst
 
 Les sorties conditionnelles de l'algorithme sont les suivantes:
 
-  BMA
-    *Liste de vecteurs*. Chaque élément est un vecteur d'écart entre
-    l'ébauche et l'état optimal.
-
-    Exemple : ``bma = ADD.get("BMA")[-1]``
-
-  CurrentState
-    *Liste de vecteurs*. Chaque élément est un vecteur d'état courant utilisé
-    au cours du déroulement de l'algorithme d'optimisation.
-
-    Exemple : ``Xs = ADD.get("CurrentState")[:]``
-
-  IndexOfOptimum
-    *Liste d'entiers*. Chaque élément est l'index d'itération de l'optimum
-    obtenu au cours du déroulement de l'algorithme d'optimisation. Ce n'est pas
-    nécessairement le numéro de la dernière itération.
-
-    Exemple : ``i = ADD.get("IndexOfOptimum")[-1]``
-
-  Innovation
-    *Liste de vecteurs*. Chaque élément est un vecteur d'innovation, qui est
-    en statique l'écart de l'optimum à l'ébauche, et en dynamique l'incrément
-    d'évolution.
-
-    Exemple : ``d = ADD.get("Innovation")[-1]``
+  .. include:: snippets/BMA.rst
 
-  InnovationAtCurrentState
-    *Liste de vecteurs*. Chaque élément est un vecteur d'innovation à l'état
-    courant.
+  .. include:: snippets/CostFunctionJAtCurrentOptimum.rst
 
-    Exemple : ``ds = ADD.get("InnovationAtCurrentState")[-1]``
+  .. include:: snippets/CostFunctionJbAtCurrentOptimum.rst
 
-  OMA
-    *Liste de vecteurs*. Chaque élément est un vecteur d'écart entre
-    l'observation et l'état optimal dans l'espace des observations.
+  .. include:: snippets/CostFunctionJoAtCurrentOptimum.rst
 
-    Exemple : ``oma = ADD.get("OMA")[-1]``
+  .. include:: snippets/CurrentOptimum.rst
 
-  OMB
-    *Liste de vecteurs*. Chaque élément est un vecteur d'écart entre
-    l'observation et l'état d'ébauche dans l'espace des observations.
+  .. include:: snippets/CurrentState.rst
 
-    Exemple : ``omb = ADD.get("OMB")[-1]``
+  .. include:: snippets/IndexOfOptimum.rst
 
-  SimulatedObservationAtBackground
-    *Liste de vecteurs*. Chaque élément est un vecteur d'observation simulé à
-    partir de l'ébauche :math:`\mathbf{x}^b`.
+  .. include:: snippets/Innovation.rst
 
-    Exemple : ``hxb = ADD.get("SimulatedObservationAtBackground")[-1]``
+  .. include:: snippets/InnovationAtCurrentState.rst
 
-  SimulatedObservationAtCurrentOptimum
-    *Liste de vecteurs*. Chaque élément est un vecteur d'observation simulé à
-    partir de l'état optimal au pas de temps courant au cours du déroulement de
-    l'algorithme d'optimisation, c'est-à-dire dans l'espace des observations.
+  .. include:: snippets/OMA.rst
 
-    Exemple : ``hxo = ADD.get("SimulatedObservationAtCurrentOptimum")[-1]``
+  .. include:: snippets/OMB.rst
 
-  SimulatedObservationAtCurrentState
-    *Liste de vecteurs*. Chaque élément est un vecteur d'observation simulé à
-    partir de l'état courant, c'est-à-dire dans l'espace des observations.
+  .. include:: snippets/SimulatedObservationAtBackground.rst
 
-    Exemple : ``hxs = ADD.get("SimulatedObservationAtCurrentState")[-1]``
+  .. include:: snippets/SimulatedObservationAtCurrentOptimum.rst
 
-  SimulatedObservationAtOptimum
-    *Liste de vecteurs*. Chaque élément est un vecteur d'observation simulé à
-    partir de l'analyse ou de l'état optimal :math:`\mathbf{x}^a`.
+  .. include:: snippets/SimulatedObservationAtCurrentState.rst
 
-    Exemple : ``hxa = ADD.get("SimulatedObservationAtOptimum")[-1]``
+  .. include:: snippets/SimulatedObservationAtOptimum.rst
 
 Voir aussi
 ++++++++++