Salome HOME
Completing EFICAS tree modification and its documentation
[modules/adao.git] / doc / en / ref_algorithm_UnscentedKalmanFilter.rst
1 ..
2    Copyright (C) 2008-2015 EDF R&D
3
4    This file is part of SALOME ADAO module.
5
6    This library is free software; you can redistribute it and/or
7    modify it under the terms of the GNU Lesser General Public
8    License as published by the Free Software Foundation; either
9    version 2.1 of the License, or (at your option) any later version.
10
11    This library is distributed in the hope that it will be useful,
12    but WITHOUT ANY WARRANTY; without even the implied warranty of
13    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14    Lesser General Public License for more details.
15
16    You should have received a copy of the GNU Lesser General Public
17    License along with this library; if not, write to the Free Software
18    Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
19
20    See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
21
22    Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
23
24 .. index:: single: UnscentedKalmanFilter
25 .. _section_ref_algorithm_UnscentedKalmanFilter:
26
27 Calculation algorithm "*UnscentedKalmanFilter*"
28 -----------------------------------------------
29
30 Description
31 +++++++++++
32
33 This algorithm realizes an estimation of the state of a dynamic system by a
34 "unscented" Kalman Filter, avoiding to have to perform the tangent and adjoint
35 operators for the observation and evolution operators, as in the simple or
36 extended Kalman filter.
37
38 Optional and required commands
39 ++++++++++++++++++++++++++++++
40
41 .. index:: single: AlgorithmParameters
42 .. index:: single: Background
43 .. index:: single: BackgroundError
44 .. index:: single: Observation
45 .. index:: single: ObservationError
46 .. index:: single: ObservationOperator
47 .. index:: single: Bounds
48 .. index:: single: ConstrainedBy
49 .. index:: single: EstimationOf
50 .. index:: single: Alpha
51 .. index:: single: Beta
52 .. index:: single: Kappa
53 .. index:: single: Reconditioner
54 .. index:: single: StoreSupplementaryCalculations
55
56 The general required commands, available in the editing user interface, are the
57 following:
58
59   Background
60     *Required command*. This indicates the background or initial vector used,
61     previously noted as :math:`\mathbf{x}^b`. Its value is defined as a
62     "*Vector*" or a *VectorSerie*" type object.
63
64   BackgroundError
65     *Required command*. This indicates the background error covariance matrix,
66     previously noted as :math:`\mathbf{B}`. Its value is defined as a "*Matrix*"
67     type object, a "*ScalarSparseMatrix*" type object, or a
68     "*DiagonalSparseMatrix*" type object.
69
70   Observation
71     *Required command*. This indicates the observation vector used for data
72     assimilation or optimization, previously noted as :math:`\mathbf{y}^o`. It
73     is defined as a "*Vector*" or a *VectorSerie* type object.
74
75   ObservationError
76     *Required command*. This indicates the observation error covariance matrix,
77     previously noted as :math:`\mathbf{R}`. It is defined as a "*Matrix*" type
78     object, a "*ScalarSparseMatrix*" type object, or a "*DiagonalSparseMatrix*"
79     type object.
80
81   ObservationOperator
82     *Required command*. This indicates the observation operator, previously
83     noted :math:`H`, which transforms the input parameters :math:`\mathbf{x}` to
84     results :math:`\mathbf{y}` to be compared to observations
85     :math:`\mathbf{y}^o`. Its value is defined as a "*Function*" type object or
86     a "*Matrix*" type one. In the case of "*Function*" type, different
87     functional forms can be used, as described in the section
88     :ref:`section_ref_operator_requirements`. If there is some control :math:`U`
89     included in the observation, the operator has to be applied to a pair
90     :math:`(X,U)`.
91
92 The general optional commands, available in the editing user interface, are
93 indicated in :ref:`section_ref_assimilation_keywords`. Moreover, the parameters
94 of the command "*AlgorithmParameters*" allows to choose the specific options,
95 described hereafter, of the algorithm. See
96 :ref:`section_ref_options_Algorithm_Parameters` for the good use of this
97 command.
98
99 The options of the algorithm are the following:
100
101   Bounds
102     This key allows to define upper and lower bounds for every state variable
103     being optimized. Bounds have to be given by a list of list of pairs of
104     lower/upper bounds for each variable, with extreme values every time there
105     is no bound (``None`` is not allowed when there is no bound).
106
107     Example : ``{"Bounds":[[2.,5.],[1.e-2,10.],[-30.,1.e99],[-1.e99,1.e99]]}``
108
109   EstimationOf
110     This key allows to choose the type of estimation to be performed. It can be
111     either state-estimation, with a value of "State", or parameter-estimation,
112     with a value of "Parameters". The default choice is "State".
113
114     Example : ``{"EstimationOf":"Parameters"}``
115
116   Alpha, Beta, Kappa, Reconditioner
117     These keys are internal scaling parameters. "Alpha" requires a value between
118     1.e-4 and 1. "Beta" has an optimal value of 2 for Gaussian *a priori*
119     distribution. "Kappa" requires an integer value, and the right default is
120     obtained by setting it to 0. "Reconditioner" requires a value between 1.e-3
121     and 10, it defaults to 1.
122
123     Example : ``{"Alpha":1,"Beta":2,"Kappa":0,"Reconditioner":1}``
124
125   StoreSupplementaryCalculations
126     This list indicates the names of the supplementary variables that can be
127     available at the end of the algorithm. It involves potentially costly
128     calculations or memory consumptions. The default is a void list, none of
129     these variables being calculated and stored by default. The possible names
130     are in the following list: ["APosterioriCovariance", "BMA", "CostFunctionJ",
131     "CurrentState", "Innovation"].
132
133     Example : ``{"StoreSupplementaryCalculations":["BMA","Innovation"]}``
134
135 Information and variables available at the end of the algorithm
136 +++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
137
138 At the output, after executing the algorithm, there are variables and
139 information originating from the calculation. The description of
140 :ref:`section_ref_output_variables` show the way to obtain them by the method
141 named ``get`` of the variable "*ADD*" of the post-processing. The input
142 variables, available to the user at the output in order to facilitate the
143 writing of post-processing procedures, are described in the
144 :ref:`subsection_r_o_v_Inventaire`.
145
146 The unconditional outputs of the algorithm are the following:
147
148   Analysis
149     *List of vectors*. Each element is an optimal state :math:`\mathbf{x}*` in
150     optimization or an analysis :math:`\mathbf{x}^a` in data assimilation.
151
152     Example : ``Xa = ADD.get("Analysis")[-1]``
153
154 The conditional outputs of the algorithm are the following:
155
156   APosterioriCovariance
157     *List of matrices*. Each element is an *a posteriori* error covariance
158     matrix :math:`\mathbf{A}*` of the optimal state.
159
160     Example : ``A = ADD.get("APosterioriCovariance")[-1]``
161
162   BMA
163     *List of vectors*. Each element is a vector of difference between the
164     background and the optimal state.
165
166     Example : ``bma = ADD.get("BMA")[-1]``
167
168   CostFunctionJ
169     *List of values*. Each element is a value of the error function :math:`J`.
170
171     Example : ``J = ADD.get("CostFunctionJ")[:]``
172
173   CostFunctionJb
174     *List of values*. Each element is a value of the error function :math:`J^b`,
175     that is of the background difference part.
176
177     Example : ``Jb = ADD.get("CostFunctionJb")[:]``
178
179   CostFunctionJo
180     *List of values*. Each element is a value of the error function :math:`J^o`,
181     that is of the observation difference part.
182
183     Example : ``Jo = ADD.get("CostFunctionJo")[:]``
184
185   CurrentState
186     *List of vectors*. Each element is a usual state vector used during the
187     optimization algorithm procedure.
188
189     Example : ``Xs = ADD.get("CurrentState")[:]``
190
191   Innovation
192     *List of vectors*. Each element is an innovation vector, which is in static
193     the difference between the optimal and the background, and in dynamic the
194     evolution increment.
195
196     Example : ``d = ADD.get("Innovation")[-1]``
197
198 See also
199 ++++++++
200
201 References to other sections:
202   - :ref:`section_ref_algorithm_KalmanFilter`
203   - :ref:`section_ref_algorithm_ExtendedKalmanFilter`
204
205 Bibliographical references:
206   - [WikipediaUKF]_