Salome HOME
Documentation update with features and review corrections
[modules/adao.git] / doc / fr / ref_algorithm_TabuSearch.rst
1 ..
2    Copyright (C) 2008-2024 EDF R&D
3
4    This file is part of SALOME ADAO module.
5
6    This library is free software; you can redistribute it and/or
7    modify it under the terms of the GNU Lesser General Public
8    License as published by the Free Software Foundation; either
9    version 2.1 of the License, or (at your option) any later version.
10
11    This library is distributed in the hope that it will be useful,
12    but WITHOUT ANY WARRANTY; without even the implied warranty of
13    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14    Lesser General Public License for more details.
15
16    You should have received a copy of the GNU Lesser General Public
17    License along with this library; if not, write to the Free Software
18    Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
19
20    See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
21
22    Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
23
24 .. index:: single: TabuSearch
25 .. _section_ref_algorithm_TabuSearch:
26
27 Algorithme de calcul "*TabuSearch*"
28 -----------------------------------
29
30 .. ------------------------------------ ..
31 .. include:: snippets/Header2Algo01.rst
32
33 Cet algorithme réalise une estimation de l'état d'un système par minimisation
34 sans gradient d'une fonctionnelle d'écart :math:`J`, en utilisant une méthode
35 de recherche avec liste Tabou. C'est une méthode qui n'utilise pas les dérivées
36 de la fonctionnelle d'écart. Elle entre, par exemple, dans la même catégorie
37 que
38 l':ref:`section_ref_algorithm_DerivativeFreeOptimization`,
39 l':ref:`section_ref_algorithm_ParticleSwarmOptimization` ou
40 l':ref:`section_ref_algorithm_DifferentialEvolution`.
41
42 C'est une méthode d'optimisation mono-objectif permettant la recherche du
43 minimum global d'une fonctionnelle d'erreur :math:`J` quelconque de type
44 :math:`L^1`, :math:`L^2` ou :math:`L^{\infty}`, avec ou sans pondérations. La
45 fonctionnelle d'erreur par défaut est celle de moindres carrés pondérés
46 augmentés, classiquement utilisée en assimilation de données.
47
48 Elle fonctionne par exploration aléatoire itérative du voisinage du point
49 courant, pour en choisir l'état qui minimise la fonctionnelle d'écart. Pour
50 éviter de revenir dans un point déjà exploré, le mécanisme de mémoire de
51 l'algorithme permet d'interdire (d'où le nom de *tabou*) le retour dans les
52 derniers états explorés. Les positions déjà explorées sont conservées dans une
53 liste de longueur finie.
54
55 .. ------------------------------------ ..
56 .. include:: snippets/Header2Algo12.rst
57
58 .. include:: snippets/FeaturePropNonLocalOptimization.rst
59
60 .. include:: snippets/FeaturePropDerivativeFree.rst
61
62 .. ------------------------------------ ..
63 .. include:: snippets/Header2Algo02.rst
64
65 .. include:: snippets/Background.rst
66
67 .. include:: snippets/BackgroundError.rst
68
69 .. include:: snippets/Observation.rst
70
71 .. include:: snippets/ObservationError.rst
72
73 .. include:: snippets/ObservationOperator.rst
74
75 .. ------------------------------------ ..
76 .. include:: snippets/Header2Algo03AdOp.rst
77
78 .. include:: snippets/BoundsWithNone.rst
79
80 .. include:: snippets/LengthOfTabuList.rst
81
82 .. include:: snippets/MaximumNumberOfIterations_50.rst
83
84 .. include:: snippets/NoiseAddingProbability.rst
85
86 .. include:: snippets/NoiseDistribution.rst
87
88 .. include:: snippets/NoiseHalfRange.rst
89
90 .. include:: snippets/NumberOfElementaryPerturbations.rst
91
92 .. include:: snippets/QualityCriterion.rst
93
94 .. include:: snippets/SetSeed.rst
95
96 .. include:: snippets/StandardDeviation.rst
97
98 StoreSupplementaryCalculations
99   .. index:: single: StoreSupplementaryCalculations
100
101   *Liste de noms*. Cette liste indique les noms des variables supplémentaires,
102   qui peuvent être disponibles au cours du déroulement ou à la fin de
103   l'algorithme, si elles sont initialement demandées par l'utilisateur. Leur
104   disponibilité implique, potentiellement, des calculs ou du stockage coûteux.
105   La valeur par défaut est donc une liste vide, aucune de ces variables n'étant
106   calculée et stockée par défaut (sauf les variables inconditionnelles). Les
107   noms possibles pour les variables supplémentaires sont dans la liste suivante
108   (la description détaillée de chaque variable nommée est donnée dans la suite
109   de cette documentation par algorithme spécifique, dans la sous-partie
110   "*Informations et variables disponibles à la fin de l'algorithme*") : [
111   "Analysis",
112   "BMA",
113   "CostFunctionJ",
114   "CostFunctionJb",
115   "CostFunctionJo",
116   "CurrentIterationNumber",
117   "CurrentState",
118   "Innovation",
119   "OMA",
120   "OMB",
121   "SimulatedObservationAtBackground",
122   "SimulatedObservationAtCurrentState",
123   "SimulatedObservationAtOptimum",
124   ].
125
126   Exemple :
127   ``{"StoreSupplementaryCalculations":["CurrentState", "Residu"]}``
128
129 .. ------------------------------------ ..
130 .. include:: snippets/Header2Algo04.rst
131
132 .. include:: snippets/Analysis.rst
133
134 .. include:: snippets/CostFunctionJ.rst
135
136 .. include:: snippets/CostFunctionJb.rst
137
138 .. include:: snippets/CostFunctionJo.rst
139
140 .. ------------------------------------ ..
141 .. include:: snippets/Header2Algo05.rst
142
143 .. include:: snippets/Analysis.rst
144
145 .. include:: snippets/BMA.rst
146
147 .. include:: snippets/CostFunctionJ.rst
148
149 .. include:: snippets/CostFunctionJb.rst
150
151 .. include:: snippets/CostFunctionJo.rst
152
153 .. include:: snippets/CurrentIterationNumber.rst
154
155 .. include:: snippets/CurrentState.rst
156
157 .. include:: snippets/Innovation.rst
158
159 .. include:: snippets/OMA.rst
160
161 .. include:: snippets/OMB.rst
162
163 .. include:: snippets/SimulatedObservationAtBackground.rst
164
165 .. include:: snippets/SimulatedObservationAtCurrentState.rst
166
167 .. include:: snippets/SimulatedObservationAtOptimum.rst
168
169 .. ------------------------------------ ..
170 .. _section_ref_algorithm_TabuSearch_examples:
171
172 .. include:: snippets/Header2Algo06.rst
173
174 - :ref:`section_ref_algorithm_DerivativeFreeOptimization`
175 - :ref:`section_ref_algorithm_DifferentialEvolution`
176 - :ref:`section_ref_algorithm_ParticleSwarmOptimization`
177
178 .. ------------------------------------ ..
179 .. include:: snippets/Header2Algo07.rst
180
181 - [Glover89]_
182 - [Glover90]_
183 - [WikipediaTS]_