Salome HOME
Adding CurrentIterationNumber to user information and documentation
[modules/adao.git] / doc / fr / ref_algorithm_DerivativeFreeOptimization.rst
1 ..
2    Copyright (C) 2008-2020 EDF R&D
3
4    This file is part of SALOME ADAO module.
5
6    This library is free software; you can redistribute it and/or
7    modify it under the terms of the GNU Lesser General Public
8    License as published by the Free Software Foundation; either
9    version 2.1 of the License, or (at your option) any later version.
10
11    This library is distributed in the hope that it will be useful,
12    but WITHOUT ANY WARRANTY; without even the implied warranty of
13    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14    Lesser General Public License for more details.
15
16    You should have received a copy of the GNU Lesser General Public
17    License along with this library; if not, write to the Free Software
18    Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
19
20    See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
21
22    Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
23
24 .. index:: single: DerivativeFreeOptimization
25 .. _section_ref_algorithm_DerivativeFreeOptimization:
26
27 Algorithme de calcul "*DerivativeFreeOptimization*"
28 ---------------------------------------------------
29
30 .. ------------------------------------ ..
31 .. include:: snippets/Header2Algo01.rst
32
33 Cet algorithme réalise une estimation d'état d'un système par minimisation
34 d'une fonctionnelle d'écart :math:`J` sans gradient. C'est une méthode qui
35 n'utilise pas les dérivées de la fonctionnelle d'écart. Elle entre, par
36 exemple, dans la même catégorie que
37 l':ref:`section_ref_algorithm_ParticleSwarmOptimization`,
38 l':ref:`section_ref_algorithm_DifferentialEvolution` ou
39 l':ref:`section_ref_algorithm_TabuSearch`.
40
41 C'est une méthode d'optimisation permettant la recherche du minimum global d'une
42 fonctionnelle d'erreur :math:`J` quelconque de type :math:`L^1`, :math:`L^2` ou
43 :math:`L^{\infty}`, avec ou sans pondérations. La fonctionnelle d'erreur par
44 défaut est celle de moindres carrés pondérés augmentés, classiquement utilisée
45 en assimilation de données.
46
47 .. ------------------------------------ ..
48 .. include:: snippets/Header2Algo02.rst
49
50 .. include:: snippets/Background.rst
51
52 .. include:: snippets/BackgroundError.rst
53
54 .. include:: snippets/Observation.rst
55
56 .. include:: snippets/ObservationError.rst
57
58 .. include:: snippets/ObservationOperator.rst
59
60 .. ------------------------------------ ..
61 .. include:: snippets/Header2Algo03AdOp.rst
62
63 .. include:: snippets/Minimizer_DFO.rst
64
65 .. include:: snippets/BoundsWithNone.rst
66
67 .. include:: snippets/MaximumNumberOfSteps.rst
68
69 .. include:: snippets/MaximumNumberOfFunctionEvaluations.rst
70
71 .. include:: snippets/StateVariationTolerance.rst
72
73 .. include:: snippets/CostDecrementTolerance.rst
74
75 .. include:: snippets/QualityCriterion.rst
76
77 StoreSupplementaryCalculations
78   .. index:: single: StoreSupplementaryCalculations
79
80   Cette liste indique les noms des variables supplémentaires qui peuvent être
81   disponibles à la fin de l'algorithme, si elles sont initialement demandées par
82   l'utilisateur. Cela implique potentiellement des calculs ou du stockage
83   coûteux. La valeur par défaut est une liste vide, aucune de ces variables
84   n'étant calculée et stockée par défaut sauf les variables inconditionnelles.
85   Les noms possibles sont dans la liste suivante : [
86   "Analysis",
87   "BMA",
88   "CostFunctionJ",
89   "CostFunctionJb",
90   "CostFunctionJo",
91   "CostFunctionJAtCurrentOptimum",
92   "CostFunctionJbAtCurrentOptimum",
93   "CostFunctionJoAtCurrentOptimum",
94   "CurrentIterationNumber",
95   "CurrentOptimum",
96   "CurrentState",
97   "IndexOfOptimum",
98   "Innovation",
99   "InnovationAtCurrentState",
100   "OMA",
101   "OMB",
102   "SimulatedObservationAtBackground",
103   "SimulatedObservationAtCurrentOptimum",
104   "SimulatedObservationAtCurrentState",
105   "SimulatedObservationAtOptimum",
106   ].
107
108   Exemple :
109   ``{"StoreSupplementaryCalculations":["BMA", "CurrentState"]}``
110
111 .. ------------------------------------ ..
112 .. include:: snippets/Header2Algo04.rst
113
114 .. include:: snippets/Analysis.rst
115
116 .. include:: snippets/CostFunctionJ.rst
117
118 .. include:: snippets/CostFunctionJb.rst
119
120 .. include:: snippets/CostFunctionJo.rst
121
122 .. include:: snippets/CurrentState.rst
123
124 .. ------------------------------------ ..
125 .. include:: snippets/Header2Algo05.rst
126
127 .. include:: snippets/Analysis.rst
128
129 .. include:: snippets/BMA.rst
130
131 .. include:: snippets/CostFunctionJ.rst
132
133 .. include:: snippets/CostFunctionJb.rst
134
135 .. include:: snippets/CostFunctionJo.rst
136
137 .. include:: snippets/CostFunctionJAtCurrentOptimum.rst
138
139 .. include:: snippets/CostFunctionJbAtCurrentOptimum.rst
140
141 .. include:: snippets/CostFunctionJoAtCurrentOptimum.rst
142
143 .. include:: snippets/CurrentIterationNumber.rst
144
145 .. include:: snippets/CurrentOptimum.rst
146
147 .. include:: snippets/CurrentState.rst
148
149 .. include:: snippets/IndexOfOptimum.rst
150
151 .. include:: snippets/Innovation.rst
152
153 .. include:: snippets/InnovationAtCurrentState.rst
154
155 .. include:: snippets/OMA.rst
156
157 .. include:: snippets/OMB.rst
158
159 .. include:: snippets/SimulatedObservationAtBackground.rst
160
161 .. include:: snippets/SimulatedObservationAtCurrentOptimum.rst
162
163 .. include:: snippets/SimulatedObservationAtCurrentState.rst
164
165 .. include:: snippets/SimulatedObservationAtOptimum.rst
166
167 .. ------------------------------------ ..
168 .. include:: snippets/Header2Algo06.rst
169
170 - :ref:`section_ref_algorithm_ParticleSwarmOptimization`
171 - :ref:`section_ref_algorithm_DifferentialEvolution`
172 - :ref:`section_ref_algorithm_TabuSearch`
173
174 .. ------------------------------------ ..
175 .. include:: snippets/Header2Algo07.rst
176
177 - [Johnson08]_
178 - [Nelder65]_
179 - [Powell64]_
180 - [Powell94]_
181 - [Powell98]_
182 - [Powell04]_
183 - [Powell07]_
184 - [Powell09]_
185 - [Rowan90]_