Salome HOME
Documentation improvements and post analysis
[modules/adao.git] / doc / fr / ref_algorithm_TabuSearch.rst
1 ..
2    Copyright (C) 2008-2021 EDF R&D
3
4    This file is part of SALOME ADAO module.
5
6    This library is free software; you can redistribute it and/or
7    modify it under the terms of the GNU Lesser General Public
8    License as published by the Free Software Foundation; either
9    version 2.1 of the License, or (at your option) any later version.
10
11    This library is distributed in the hope that it will be useful,
12    but WITHOUT ANY WARRANTY; without even the implied warranty of
13    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14    Lesser General Public License for more details.
15
16    You should have received a copy of the GNU Lesser General Public
17    License along with this library; if not, write to the Free Software
18    Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
19
20    See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
21
22    Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
23
24 .. index:: single: TabuSearch
25 .. _section_ref_algorithm_TabuSearch:
26
27 Algorithme de calcul "*TabuSearch*"
28 -----------------------------------
29
30 .. ------------------------------------ ..
31 .. include:: snippets/Header2Algo01.rst
32
33 Cet algorithme réalise une estimation d'état par minimisation d'une
34 fonctionnelle d'écart :math:`J` sans gradient. C'est une méthode qui n'utilise
35 pas les dérivées de la fonctionnelle d'écart. Elle entre, par exemple, dans la
36 même catégorie que l':ref:`section_ref_algorithm_DerivativeFreeOptimization`,
37 l':ref:`section_ref_algorithm_ParticleSwarmOptimization` ou
38 l':ref:`section_ref_algorithm_DifferentialEvolution`.
39
40 C'est une méthode d'optimisation permettant la recherche du minimum global d'une
41 fonctionnelle d'erreur :math:`J` quelconque de type :math:`L^1`, :math:`L^2` ou
42 :math:`L^{\infty}`, avec ou sans pondérations. La fonctionnelle d'erreur par
43 défaut est celle de moindres carrés pondérés augmentés, classiquement utilisée
44 en assimilation de données.
45
46 Elle fonctionne par exploration aléatoire itérative du voisinage du point
47 courant, pour en choisir l'état qui minimise la fonctionnelle d'écart. Pour
48 éviter de revenir dans un point déjà exploré, le mécanisme de mémoire de
49 l'algorithme permet d'interdire (d'où le nom de *tabou*) le retour dans les
50 derniers états explorés. Les positions déjà explorées sont conservées dans une
51 liste de longueur finie.
52
53 .. ------------------------------------ ..
54 .. include:: snippets/Header2Algo02.rst
55
56 .. include:: snippets/Background.rst
57
58 .. include:: snippets/BackgroundError.rst
59
60 .. include:: snippets/Observation.rst
61
62 .. include:: snippets/ObservationError.rst
63
64 .. include:: snippets/ObservationOperator.rst
65
66 .. ------------------------------------ ..
67 .. include:: snippets/Header2Algo03AdOp.rst
68
69 .. include:: snippets/LengthOfTabuList.rst
70
71 .. include:: snippets/MaximumNumberOfSteps_50.rst
72
73 .. include:: snippets/NoiseAddingProbability.rst
74
75 .. include:: snippets/NoiseDistribution.rst
76
77 .. include:: snippets/NoiseHalfRange.rst
78
79 .. include:: snippets/NumberOfElementaryPerturbations.rst
80
81 .. include:: snippets/QualityCriterion.rst
82
83 .. include:: snippets/SetSeed.rst
84
85 .. include:: snippets/StandardDeviation.rst
86
87 StoreSupplementaryCalculations
88   .. index:: single: StoreSupplementaryCalculations
89
90   *Liste de noms*. Cette liste indique les noms des variables supplémentaires
91   qui peuvent être disponibles au cours du déroulement ou à la fin de
92   l'algorithme, si elles sont initialement demandées par l'utilisateur. Cela
93   implique potentiellement des calculs ou du stockage coûteux. La valeur par
94   défaut est une liste vide, aucune de ces variables n'étant calculée et
95   stockée par défaut sauf les variables inconditionnelles. Les noms possibles
96   sont dans la liste suivante : [
97   "Analysis",
98   "BMA",
99   "CostFunctionJ",
100   "CostFunctionJb",
101   "CostFunctionJo",
102   "CurrentIterationNumber",
103   "CurrentState",
104   "Innovation",
105   "OMA",
106   "OMB",
107   "SimulatedObservationAtBackground",
108   "SimulatedObservationAtCurrentState",
109   "SimulatedObservationAtOptimum",
110   ].
111
112   Exemple :
113   ``{"StoreSupplementaryCalculations":["BMA", "CurrentState"]}``
114
115 .. ------------------------------------ ..
116 .. include:: snippets/Header2Algo04.rst
117
118 .. include:: snippets/Analysis.rst
119
120 .. include:: snippets/CostFunctionJ.rst
121
122 .. include:: snippets/CostFunctionJb.rst
123
124 .. include:: snippets/CostFunctionJo.rst
125
126 .. ------------------------------------ ..
127 .. include:: snippets/Header2Algo05.rst
128
129 .. include:: snippets/Analysis.rst
130
131 .. include:: snippets/BMA.rst
132
133 .. include:: snippets/CostFunctionJ.rst
134
135 .. include:: snippets/CostFunctionJb.rst
136
137 .. include:: snippets/CostFunctionJo.rst
138
139 .. include:: snippets/CurrentIterationNumber.rst
140
141 .. include:: snippets/CurrentState.rst
142
143 .. include:: snippets/Innovation.rst
144
145 .. include:: snippets/OMA.rst
146
147 .. include:: snippets/OMB.rst
148
149 .. include:: snippets/SimulatedObservationAtBackground.rst
150
151 .. include:: snippets/SimulatedObservationAtCurrentState.rst
152
153 .. include:: snippets/SimulatedObservationAtOptimum.rst
154
155 .. ------------------------------------ ..
156 .. include:: snippets/Header2Algo06.rst
157
158 - :ref:`section_ref_algorithm_DerivativeFreeOptimization`
159 - :ref:`section_ref_algorithm_DifferentialEvolution`
160 - :ref:`section_ref_algorithm_ParticleSwarmOptimization`
161
162 .. ------------------------------------ ..
163 .. include:: snippets/Header2Algo07.rst
164
165 - [Glover89]_
166 - [Glover90]_
167 - [WikipediaTS]_