Salome HOME
Documentation and source minor corrections for observers
[modules/adao.git] / doc / en / ref_algorithm_QuantileRegression.rst
1 ..
2    Copyright (C) 2008-2015 EDF R&D
3
4    This file is part of SALOME ADAO module.
5
6    This library is free software; you can redistribute it and/or
7    modify it under the terms of the GNU Lesser General Public
8    License as published by the Free Software Foundation; either
9    version 2.1 of the License, or (at your option) any later version.
10
11    This library is distributed in the hope that it will be useful,
12    but WITHOUT ANY WARRANTY; without even the implied warranty of
13    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14    Lesser General Public License for more details.
15
16    You should have received a copy of the GNU Lesser General Public
17    License along with this library; if not, write to the Free Software
18    Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
19
20    See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
21
22    Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
23
24 .. index:: single: QuantileRegression
25 .. _section_ref_algorithm_QuantileRegression:
26
27 Calculation algorithm "*QuantileRegression*"
28 --------------------------------------------
29
30 Description
31 +++++++++++
32
33 This algorithm allows to estimate the conditional quantiles of the state
34 parameters distribution, expressed with a model of the observed variables. These
35 are then the quantiles on the observed variables which will allow to determine
36 the model parameters that satisfy to the quantiles conditions.
37
38 Optional and required commands
39 ++++++++++++++++++++++++++++++
40
41 .. index:: single: AlgorithmParameters
42 .. index:: single: Background
43 .. index:: single: Observation
44 .. index:: single: ObservationOperator
45 .. index:: single: Quantile
46 .. index:: single: Minimizer
47 .. index:: single: MaximumNumberOfSteps
48 .. index:: single: CostDecrementTolerance
49 .. index:: single: Bounds
50 .. index:: single: StoreSupplementaryCalculations
51
52 The general required commands, available in the editing user interface, are the
53 following:
54
55   Background
56     *Required command*. This indicates the background or initial vector used,
57     previously noted as :math:`\mathbf{x}^b`. Its value is defined as a
58     "*Vector*" or a *VectorSerie*" type object.
59
60   Observation
61     *Required command*. This indicates the observation vector used for data
62     assimilation or optimization, previously noted as :math:`\mathbf{y}^o`. It
63     is defined as a "*Vector*" or a *VectorSerie* type object.
64
65   ObservationOperator
66     *Required command*. This indicates the observation operator, previously
67     noted :math:`H`, which transforms the input parameters :math:`\mathbf{x}` to
68     results :math:`\mathbf{y}` to be compared to observations
69     :math:`\mathbf{y}^o`. Its value is defined as a "*Function*" type object or
70     a "*Matrix*" type one. In the case of "*Function*" type, different
71     functional forms can be used, as described in the section
72     :ref:`section_ref_operator_requirements`. If there is some control :math:`U`
73     included in the observation, the operator has to be applied to a pair
74     :math:`(X,U)`.
75
76 The general optional commands, available in the editing user interface, are
77 indicated in :ref:`section_ref_assimilation_keywords`. Moreover, the parameters
78 of the command "*AlgorithmParameters*" allows to choose the specific options,
79 described hereafter, of the algorithm. See
80 :ref:`section_ref_options_Algorithm_Parameters` for the good use of this
81 command.
82
83 The options of the algorithm are the following:
84
85   Quantile
86     This key allows to define the real value of the desired quantile, between
87     0 and 1. The default is 0.5, corresponding to the median.
88
89     Example : ``{"Quantile":0.5}``
90
91   MaximumNumberOfSteps
92     This key indicates the maximum number of iterations allowed for iterative
93     optimization. The default is 15000, which is very similar to no limit on
94     iterations. It is then recommended to adapt this parameter to the needs on
95     real problems.
96
97     Example : ``{"MaximumNumberOfSteps":100}``
98
99   CostDecrementTolerance
100     This key indicates a limit value, leading to stop successfully the
101     iterative optimization process when the cost function or the surrogate
102     decreases less than this tolerance at the last step. The default is 1.e-6,
103     and it is recommended to adapt it to the needs on real problems.
104
105     Example : ``{"CostDecrementTolerance":1.e-7}``
106
107   Bounds
108     This key allows to define upper and lower bounds for every state variable
109     being optimized. Bounds have to be given by a list of list of pairs of
110     lower/upper bounds for each variable, with possibly ``None`` every time
111     there is no bound. The bounds can always be specified, but they are taken
112     into account only by the constrained optimizers.
113
114     Example : ``{"Bounds":[[2.,5.],[1.e-2,10.],[-30.,None],[None,None]]}``
115
116   StoreSupplementaryCalculations
117     This list indicates the names of the supplementary variables that can be
118     available at the end of the algorithm. It involves potentially costly
119     calculations or memory consumptions. The default is a void list, none of
120     these variables being calculated and stored by default. The possible names
121     are in the following list: ["BMA", "CostFunctionJ", "CurrentState", "OMA",
122     "OMB", "Innovation", "SimulatedObservationAtBackground",
123     "SimulatedObservationAtCurrentState", "SimulatedObservationAtOptimum"].
124
125     Example : ``{"StoreSupplementaryCalculations":["BMA", "Innovation"]}``
126
127 *Tips for this algorithm:*
128
129     As the *"BackgroundError"* and *"ObservationError"* commands are required
130     for ALL the calculation algorithms in the interface, you have to provide a
131     value, even if these commands are not required for this algorithm, and will
132     not be used. The simplest way is to give "1" as a STRING for both.
133
134 Information and variables available at the end of the algorithm
135 +++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
136
137 At the output, after executing the algorithm, there are variables and
138 information originating from the calculation. The description of
139 :ref:`section_ref_output_variables` show the way to obtain them by the method
140 named ``get`` of the variable "*ADD*" of the post-processing. The input
141 variables, available to the user at the output in order to facilitate the
142 writing of post-processing procedures, are described in the
143 :ref:`subsection_r_o_v_Inventaire`.
144
145 The unconditional outputs of the algorithm are the following:
146
147   Analysis
148     *List of vectors*. Each element is an optimal state :math:`\mathbf{x}*` in
149     optimization or an analysis :math:`\mathbf{x}^a` in data assimilation.
150
151     Example : ``Xa = ADD.get("Analysis")[-1]``
152
153   CostFunctionJ
154     *List of values*. Each element is a value of the error function :math:`J`.
155
156     Example : ``J = ADD.get("CostFunctionJ")[:]``
157
158   CostFunctionJb
159     *List of values*. Each element is a value of the error function :math:`J^b`,
160     that is of the background difference part.
161
162     Example : ``Jb = ADD.get("CostFunctionJb")[:]``
163
164   CostFunctionJo
165     *List of values*. Each element is a value of the error function :math:`J^o`,
166     that is of the observation difference part.
167
168     Example : ``Jo = ADD.get("CostFunctionJo")[:]``
169
170 The conditional outputs of the algorithm are the following:
171
172   BMA
173     *List of vectors*. Each element is a vector of difference between the
174     background and the optimal state.
175
176     Example : ``bma = ADD.get("BMA")[-1]``
177
178   CurrentState
179     *List of vectors*. Each element is a usual state vector used during the
180     optimization algorithm procedure.
181
182     Example : ``Xs = ADD.get("CurrentState")[:]``
183
184   Innovation
185     *List of vectors*. Each element is an innovation vector, which is in static
186     the difference between the optimal and the background, and in dynamic the
187     evolution increment.
188
189     Example : ``d = ADD.get("Innovation")[-1]``
190
191   OMA
192     *List of vectors*. Each element is a vector of difference between the
193     observation and the optimal state in the observation space.
194
195     Example : ``oma = ADD.get("OMA")[-1]``
196
197   OMB
198     *List of vectors*. Each element is a vector of difference between the
199     observation and the background state in the observation space.
200
201     Example : ``omb = ADD.get("OMB")[-1]``
202
203   SimulatedObservationAtBackground
204     *List of vectors*. Each element is a vector of observation simulated from
205     the background :math:`\mathbf{x}^b`.
206
207     Example : ``hxb = ADD.get("SimulatedObservationAtBackground")[-1]``
208
209   SimulatedObservationAtCurrentState
210     *List of vectors*. Each element is an observed vector at the current state,
211     that is, in the observation space.
212
213     Example : ``Ys = ADD.get("SimulatedObservationAtCurrentState")[-1]``
214
215   SimulatedObservationAtOptimum
216     *List of vectors*. Each element is a vector of observation simulated from
217     the analysis or optimal state :math:`\mathbf{x}^a`.
218
219     Example : ``hxa = ADD.get("SimulatedObservationAtOptimum")[-1]``
220
221 See also
222 ++++++++
223
224 Bibliographical references:
225   - [Buchinsky98]_
226   - [Cade03]_
227   - [Koenker00]_
228   - [Koenker01]_
229   - [WikipediaQR]_