Salome HOME
Completing EFICAS tree modification and its documentation
[modules/adao.git] / doc / en / ref_algorithm_NonLinearLeastSquares.rst
1 ..
2    Copyright (C) 2008-2015 EDF R&D
3
4    This file is part of SALOME ADAO module.
5
6    This library is free software; you can redistribute it and/or
7    modify it under the terms of the GNU Lesser General Public
8    License as published by the Free Software Foundation; either
9    version 2.1 of the License, or (at your option) any later version.
10
11    This library is distributed in the hope that it will be useful,
12    but WITHOUT ANY WARRANTY; without even the implied warranty of
13    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14    Lesser General Public License for more details.
15
16    You should have received a copy of the GNU Lesser General Public
17    License along with this library; if not, write to the Free Software
18    Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
19
20    See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
21
22    Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
23
24 .. index:: single: NonLinearLeastSquares
25 .. _section_ref_algorithm_NonLinearLeastSquares:
26
27 Calculation algorithm "*NonLinearLeastSquares*"
28 -----------------------------------------------
29
30 Description
31 +++++++++++
32
33 This algorithm realizes a state estimation by variational minimization of the
34 classical :math:`J` function of weighted "Least Squares":
35
36 .. math:: J(\mathbf{x})=(\mathbf{y}^o-\mathbf{H}.\mathbf{x})^T.\mathbf{R}^{-1}.(\mathbf{y}^o-\mathbf{H}.\mathbf{x})
37
38 It is similar to the :ref:`section_ref_algorithm_3DVAR`, without its background
39 part. The background, required in the interface, is only used as an initial
40 point for the variational minimization.
41
42 In all cases, it is recommended to prefer the :ref:`section_ref_algorithm_3DVAR`
43 for its stability as for its behaviour during optimization.
44
45 Optional and required commands
46 ++++++++++++++++++++++++++++++
47
48 .. index:: single: AlgorithmParameters
49 .. index:: single: Background
50 .. index:: single: Observation
51 .. index:: single: ObservationError
52 .. index:: single: ObservationOperator
53 .. index:: single: Minimizer
54 .. index:: single: Bounds
55 .. index:: single: MaximumNumberOfSteps
56 .. index:: single: CostDecrementTolerance
57 .. index:: single: ProjectedGradientTolerance
58 .. index:: single: GradientNormTolerance
59 .. index:: single: StoreSupplementaryCalculations
60
61 The general required commands, available in the editing user interface, are the
62 following:
63
64   Background
65     *Required command*. This indicates the background or initial vector used,
66     previously noted as :math:`\mathbf{x}^b`. Its value is defined as a
67     "*Vector*" or a *VectorSerie*" type object.
68
69   Observation
70     *Required command*. This indicates the observation vector used for data
71     assimilation or optimization, previously noted as :math:`\mathbf{y}^o`. It
72     is defined as a "*Vector*" or a *VectorSerie* type object.
73
74   ObservationError
75     *Required command*. This indicates the observation error covariance matrix,
76     previously noted as :math:`\mathbf{R}`. It is defined as a "*Matrix*" type
77     object, a "*ScalarSparseMatrix*" type object, or a "*DiagonalSparseMatrix*"
78     type object.
79
80   ObservationOperator
81     *Required command*. This indicates the observation operator, previously
82     noted :math:`H`, which transforms the input parameters :math:`\mathbf{x}` to
83     results :math:`\mathbf{y}` to be compared to observations
84     :math:`\mathbf{y}^o`. Its value is defined as a "*Function*" type object or
85     a "*Matrix*" type one. In the case of "*Function*" type, different
86     functional forms can be used, as described in the section
87     :ref:`section_ref_operator_requirements`. If there is some control :math:`U`
88     included in the observation, the operator has to be applied to a pair
89     :math:`(X,U)`.
90
91 The general optional commands, available in the editing user interface, are
92 indicated in :ref:`section_ref_assimilation_keywords`. Moreover, the parameters
93 of the command "*AlgorithmParameters*" allows to choose the specific options,
94 described hereafter, of the algorithm. See
95 :ref:`section_ref_options_Algorithm_Parameters` for the good use of this
96 command.
97
98 The options of the algorithm are the following:
99
100   Minimizer
101     This key allows to choose the optimization minimizer. The default choice is
102     "LBFGSB", and the possible ones are "LBFGSB" (nonlinear constrained
103     minimizer, see [Byrd95]_, [Morales11]_ and [Zhu97]_), "TNC" (nonlinear
104     constrained minimizer), "CG" (nonlinear unconstrained minimizer), "BFGS"
105     (nonlinear unconstrained minimizer), "NCG" (Newton CG minimizer). It is
106     strongly recommended to stay with the default.
107
108     Example : ``{"Minimizer":"LBFGSB"}``
109
110   Bounds
111     This key allows to define upper and lower bounds for every state variable
112     being optimized. Bounds have to be given by a list of list of pairs of
113     lower/upper bounds for each variable, with possibly ``None`` every time
114     there is no bound. The bounds can always be specified, but they are taken
115     into account only by the constrained optimizers.
116
117     Example : ``{"Bounds":[[2.,5.],[1.e-2,10.],[-30.,None],[None,None]]}``
118
119   MaximumNumberOfSteps
120     This key indicates the maximum number of iterations allowed for iterative
121     optimization. The default is 15000, which is very similar to no limit on
122     iterations. It is then recommended to adapt this parameter to the needs on
123     real problems. For some optimizers, the effective stopping step can be
124     slightly different due to algorithm internal control requirements.
125
126     Example : ``{"MaximumNumberOfSteps":100}``
127
128   CostDecrementTolerance
129     This key indicates a limit value, leading to stop successfully the
130     iterative optimization process when the cost function decreases less than
131     this tolerance at the last step. The default is 1.e-7, and it is
132     recommended to adapt it to the needs on real problems.
133
134     Example : ``{"CostDecrementTolerance":1.e-7}``
135
136   ProjectedGradientTolerance
137     This key indicates a limit value, leading to stop successfully the iterative
138     optimization process when all the components of the projected gradient are
139     under this limit. It is only used for constrained optimizers. The default is
140     -1, that is the internal default of each minimizer (generally 1.e-5), and it
141     is not recommended to change it.
142
143     Example : ``{"ProjectedGradientTolerance":-1}``
144
145   GradientNormTolerance
146     This key indicates a limit value, leading to stop successfully the
147     iterative optimization process when the norm of the gradient is under this
148     limit. It is only used for non-constrained optimizers.  The default is
149     1.e-5 and it is not recommended to change it.
150
151     Example : ``{"GradientNormTolerance":1.e-5}``
152
153   StoreSupplementaryCalculations
154     This list indicates the names of the supplementary variables that can be
155     available at the end of the algorithm. It involves potentially costly
156     calculations or memory consumptions. The default is a void list, none of
157     these variables being calculated and stored by default. The possible names
158     are in the following list: ["APosterioriCovariance", "BMA",
159     "CostFunctionJ", "CurrentState", "OMA", "OMB", "Innovation", "SigmaObs2",
160     "MahalanobisConsistency", "SimulatedObservationAtCurrentState",
161     "SimulatedObservationAtOptimum"].
162
163     Example : ``{"StoreSupplementaryCalculations":["BMA","Innovation"]}``
164
165 *Tips for this algorithm:*
166
167     As the *"BackgroundError"* command is required for ALL the calculation
168     algorithms in the interface, you have to provide a value, even if this
169     command is not required for this algorithm, and will not be used. The
170     simplest way is to give "1" as a STRING.
171
172 Information and variables available at the end of the algorithm
173 +++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
174
175 At the output, after executing the algorithm, there are variables and
176 information originating from the calculation. The description of
177 :ref:`section_ref_output_variables` show the way to obtain them by the method
178 named ``get`` of the variable "*ADD*" of the post-processing. The input
179 variables, available to the user at the output in order to facilitate the
180 writing of post-processing procedures, are described in the
181 :ref:`subsection_r_o_v_Inventaire`.
182
183 The unconditional outputs of the algorithm are the following:
184
185   Analysis
186     *List of vectors*. Each element is an optimal state :math:`\mathbf{x}*` in
187     optimization or an analysis :math:`\mathbf{x}^a` in data assimilation.
188
189     Example : ``Xa = ADD.get("Analysis")[-1]``
190
191   CostFunctionJ
192     *List of values*. Each element is a value of the error function :math:`J`.
193
194     Example : ``J = ADD.get("CostFunctionJ")[:]``
195
196   CostFunctionJb
197     *List of values*. Each element is a value of the error function :math:`J^b`,
198     that is of the background difference part.
199
200     Example : ``Jb = ADD.get("CostFunctionJb")[:]``
201
202   CostFunctionJo
203     *List of values*. Each element is a value of the error function :math:`J^o`,
204     that is of the observation difference part.
205
206     Example : ``Jo = ADD.get("CostFunctionJo")[:]``
207
208 The conditional outputs of the algorithm are the following:
209
210   BMA
211     *List of vectors*. Each element is a vector of difference between the
212     background and the optimal state.
213
214     Example : ``bma = ADD.get("BMA")[-1]``
215
216   CurrentState
217     *List of vectors*. Each element is a usual state vector used during the
218     optimization algorithm procedure.
219
220     Example : ``Xs = ADD.get("CurrentState")[:]``
221
222   Innovation
223     *List of vectors*. Each element is an innovation vector, which is in static
224     the difference between the optimal and the background, and in dynamic the
225     evolution increment.
226
227     Example : ``d = ADD.get("Innovation")[-1]``
228
229   OMA
230     *List of vectors*. Each element is a vector of difference between the
231     observation and the optimal state in the observation space.
232
233     Example : ``oma = ADD.get("OMA")[-1]``
234
235   OMB
236     *List of vectors*. Each element is a vector of difference between the
237     observation and the background state in the observation space.
238
239     Example : ``omb = ADD.get("OMB")[-1]``
240
241   SimulatedObservationAtCurrentState
242     *List of vectors*. Each element is an observed vector at the current state,
243     that is, in the observation space.
244
245     Example : ``Ys = ADD.get("SimulatedObservationAtCurrentState")[-1]``
246
247   SimulatedObservationAtOptimum
248     *List of vectors*. Each element is a vector of observation simulated from
249     the analysis or optimal state :math:`\mathbf{x}^a`.
250
251     Example : ``hxa = ADD.get("SimulatedObservationAtOptimum")[-1]``
252
253 See also
254 ++++++++
255
256 References to other sections:
257   - :ref:`section_ref_algorithm_3DVAR`
258
259 Bibliographical references:
260   - [Byrd95]_
261   - [Morales11]_