Salome HOME
Documentation corrections for outputs
[modules/adao.git] / doc / fr / ref_algorithm_LinearLeastSquares.rst
1 ..
2    Copyright (C) 2008-2015 EDF R&D
3
4    This file is part of SALOME ADAO module.
5
6    This library is free software; you can redistribute it and/or
7    modify it under the terms of the GNU Lesser General Public
8    License as published by the Free Software Foundation; either
9    version 2.1 of the License, or (at your option) any later version.
10
11    This library is distributed in the hope that it will be useful,
12    but WITHOUT ANY WARRANTY; without even the implied warranty of
13    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14    Lesser General Public License for more details.
15
16    You should have received a copy of the GNU Lesser General Public
17    License along with this library; if not, write to the Free Software
18    Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
19
20    See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
21
22    Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
23
24 .. index:: single: LinearLeastSquares
25 .. _section_ref_algorithm_LinearLeastSquares:
26
27 Algorithme de calcul "*LinearLeastSquares*"
28 -------------------------------------------
29
30 Description
31 +++++++++++
32
33 Cet algorithme réalise une estimation linéaire de type "Moindres Carrés"
34 pondérés. Il est similaire à l':ref:`section_ref_algorithm_Blue`
35 amputé de sa partie ébauche.
36
37 Cet algorithme est toujours le plus rapide de l'ensemble des algorithmes
38 d'optimisation d'ADAO. Il est théoriquement réservé aux cas d'opérateurs
39 d'observation linéaires, même s'il fonctionne parfois dans les cas "faiblement"
40 non-linéaire. On peut vérifier la linéarité de l'opérateur d'observation à
41 l'aide de l':ref:`section_ref_algorithm_LinearityTest`.
42
43 Dans tous les cas, il est recommandé de lui préférer au minimum
44 l':ref:`section_ref_algorithm_Blue`, voire
45 l':ref:`section_ref_algorithm_ExtendedBlue` ou
46 l':ref:`section_ref_algorithm_3DVAR`.
47
48 Commandes requises et optionnelles
49 ++++++++++++++++++++++++++++++++++
50
51 .. index:: single: Observation
52 .. index:: single: ObservationError
53 .. index:: single: ObservationOperator
54 .. index:: single: StoreSupplementaryCalculations
55
56 Les commandes requises générales, disponibles dans l'interface en édition, sont
57 les suivantes:
58
59   Observation
60     *Commande obligatoire*. Elle définit le vecteur d'observation utilisé en
61     assimilation de données ou en optimisation, et noté précédemment
62     :math:`\mathbf{y}^o`. Sa valeur est définie comme un objet de type "*Vector*"
63     ou de type "*VectorSerie*".
64
65   ObservationError
66     *Commande obligatoire*. Elle définit la matrice de covariance des erreurs
67     d'ébauche, notée précédemment :math:`\mathbf{R}`. Sa valeur est définie
68     comme un objet de type "*Matrix*", de type "*ScalarSparseMatrix*", ou de
69     type "*DiagonalSparseMatrix*".
70
71   ObservationOperator
72     *Commande obligatoire*. Elle indique l'opérateur d'observation, noté
73     précédemment :math:`H`, qui transforme les paramètres d'entrée
74     :math:`\mathbf{x}` en résultats :math:`\mathbf{y}` qui sont à comparer aux
75     observations :math:`\mathbf{y}^o`. Sa valeur est définie comme un objet de
76     type "*Function*" ou de type "*Matrix*". Dans le cas du type "*Function*",
77     différentes formes fonctionnelles peuvent être utilisées, comme décrit dans
78     la section :ref:`section_ref_operator_requirements`. Si un contrôle
79     :math:`U` est inclus dans le modèle d'observation, l'opérateur doit être
80     appliqué à une paire :math:`(X,U)`.
81
82 Les commandes optionnelles générales, disponibles dans l'interface en édition,
83 sont indiquées dans la :ref:`section_ref_assimilation_keywords`. En particulier,
84 la commande optionnelle "*AlgorithmParameters*" permet d'indiquer les options
85 particulières, décrites ci-après, de l'algorithme. On se reportera à la
86 :ref:`section_ref_options_AlgorithmParameters` pour le bon usage de cette
87 commande.
88
89 Les options de l'algorithme sont les suivantes:
90
91   StoreSupplementaryCalculations
92     Cette liste indique les noms des variables supplémentaires qui peuvent être
93     disponibles à la fin de l'algorithme. Cela implique potentiellement des
94     calculs ou du stockage coûteux. La valeur par défaut est une liste vide,
95     aucune de ces variables n'étant calculée et stockée par défaut. Les noms
96     possibles sont dans la liste suivante : ["OMA", "CostFunctionJ",
97     "SimulatedObservationAtOptimum"].
98
99     Exemple : ``{"StoreSupplementaryCalculations":["OMA"]}``
100
101 *Astuce pour cet algorithme :*
102
103     Comme les commandes *"Background"* et *"BackgroundError"* sont requises pour
104     TOUS les algorithmes de calcul dans l'interface, vous devez fournir une
105     valeur, malgré le fait que ces commandes ne sont pas requises pour
106     cet algorithme, et ne seront pas utilisées. La manière la plus simple est
107     de donner "1" comme un STRING pour les deux.
108
109 Informations et variables disponibles à la fin de l'algorithme
110 ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
111
112 En sortie, après exécution de l'algorithme, on dispose d'informations et de
113 variables issues du calcul. La description des
114 :ref:`section_ref_output_variables` indique la manière de les obtenir par la
115 méthode nommée ``get`` de la variable "*ADD*" du post-processing. Les variables
116 d'entrée, mises à disposition de l'utilisateur en sortie pour faciliter
117 l'écriture des procédures de post-processing, sont décrites dans
118 l':ref:`subsection_r_o_v_Inventaire`.
119
120 Les sorties non conditionnelles de l'algorithme sont les suivantes:
121
122   Analysis
123     *Liste de vecteurs*. Chaque élément est un état optimal :math:`\mathbf{x}*`
124     en optimisation ou une analyse :math:`\mathbf{x}^a` en assimilation de
125     données.
126
127     Exemple : ``Xa = ADD.get("Analysis")[-1]``
128
129   CostFunctionJ
130     *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
131     :math:`J`.
132
133     Exemple : ``J = ADD.get("CostFunctionJ")[:]``
134
135   CostFunctionJb
136     *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
137     :math:`J^b`, c'est-à-dire de la partie écart à l'ébauche.
138
139     Exemple : ``Jb = ADD.get("CostFunctionJb")[:]``
140
141   CostFunctionJo
142     *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
143     :math:`J^o`, c'est-à-dire de la partie écart à l'observation.
144
145     Exemple : ``Jo = ADD.get("CostFunctionJo")[:]``
146
147 Les sorties conditionnelles de l'algorithme sont les suivantes:
148
149   OMA
150     *Liste de vecteurs*. Chaque élément est un vecteur d'écart entre
151     l'observation et l'état optimal dans l'espace des observations.
152
153     Exemple : ``oma = ADD.get("OMA")[-1]``
154
155   SimulatedObservationAtOptimum
156     *Liste de vecteurs*. Chaque élément est un vecteur d'observation simulé à
157     partir de l'analyse ou de l'état optimal :math:`\mathbf{x}^a`.
158
159     Exemple : ``hxa = ADD.get("SimulatedObservationAtOptimum")[-1]``
160
161 Voir aussi
162 ++++++++++
163
164 Références vers d'autres sections :
165   - :ref:`section_ref_algorithm_Blue`
166   - :ref:`section_ref_algorithm_ExtendedBlue`
167   - :ref:`section_ref_algorithm_3DVAR`
168   - :ref:`section_ref_algorithm_LinearityTest`