2 Copyright (C) 2008-2023 EDF R&D
4 This file is part of SALOME ADAO module.
6 This library is free software; you can redistribute it and/or
7 modify it under the terms of the GNU Lesser General Public
8 License as published by the Free Software Foundation; either
9 version 2.1 of the License, or (at your option) any later version.
11 This library is distributed in the hope that it will be useful,
12 but WITHOUT ANY WARRANTY; without even the implied warranty of
13 MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the GNU
14 Lesser General Public License for more details.
16 You should have received a copy of the GNU Lesser General Public
17 License along with this library; if not, write to the Free Software
18 Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
20 See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
22 Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
24 .. index:: single: TabuSearch
25 .. _section_ref_algorithm_TabuSearch:
27 Algorithme de calcul "*TabuSearch*"
28 -----------------------------------
30 .. ------------------------------------ ..
31 .. include:: snippets/Header2Algo01.rst
33 Cet algorithme réalise une estimation d'état par minimisation d'une
34 fonctionnelle d'écart :math:`J` sans gradient. C'est une méthode qui n'utilise
35 pas les dérivées de la fonctionnelle d'écart. Elle entre, par exemple, dans la
36 même catégorie que l':ref:`section_ref_algorithm_DerivativeFreeOptimization`,
37 l':ref:`section_ref_algorithm_ParticleSwarmOptimization` ou
38 l':ref:`section_ref_algorithm_DifferentialEvolution`.
40 C'est une méthode d'optimisation permettant la recherche du minimum global d'une
41 fonctionnelle d'erreur :math:`J` quelconque de type :math:`L^1`, :math:`L^2` ou
42 :math:`L^{\infty}`, avec ou sans pondérations. La fonctionnelle d'erreur par
43 défaut est celle de moindres carrés pondérés augmentés, classiquement utilisée
44 en assimilation de données.
46 Elle fonctionne par exploration aléatoire itérative du voisinage du point
47 courant, pour en choisir l'état qui minimise la fonctionnelle d'écart. Pour
48 éviter de revenir dans un point déjà exploré, le mécanisme de mémoire de
49 l'algorithme permet d'interdire (d'où le nom de *tabou*) le retour dans les
50 derniers états explorés. Les positions déjà explorées sont conservées dans une
51 liste de longueur finie.
53 .. ------------------------------------ ..
54 .. include:: snippets/Header2Algo02.rst
56 .. include:: snippets/Background.rst
58 .. include:: snippets/BackgroundError.rst
60 .. include:: snippets/Observation.rst
62 .. include:: snippets/ObservationError.rst
64 .. include:: snippets/ObservationOperator.rst
66 .. ------------------------------------ ..
67 .. include:: snippets/Header2Algo03AdOp.rst
69 .. include:: snippets/BoundsWithNone.rst
71 .. include:: snippets/LengthOfTabuList.rst
73 .. include:: snippets/MaximumNumberOfIterations_50.rst
75 .. include:: snippets/NoiseAddingProbability.rst
77 .. include:: snippets/NoiseDistribution.rst
79 .. include:: snippets/NoiseHalfRange.rst
81 .. include:: snippets/NumberOfElementaryPerturbations.rst
83 .. include:: snippets/QualityCriterion.rst
85 .. include:: snippets/SetSeed.rst
87 .. include:: snippets/StandardDeviation.rst
89 StoreSupplementaryCalculations
90 .. index:: single: StoreSupplementaryCalculations
92 *Liste de noms*. Cette liste indique les noms des variables supplémentaires,
93 qui peuvent être disponibles au cours du déroulement ou à la fin de
94 l'algorithme, si elles sont initialement demandées par l'utilisateur. Leur
95 disponibilité implique, potentiellement, des calculs ou du stockage coûteux.
96 La valeur par défaut est donc une liste vide, aucune de ces variables n'étant
97 calculée et stockée par défaut (sauf les variables inconditionnelles). Les
98 noms possibles pour les variables supplémentaires sont dans la liste suivante
99 (la description détaillée de chaque variable nommée est donnée dans la suite
100 de cette documentation par algorithme spécifique, dans la sous-partie
101 "*Informations et variables disponibles à la fin de l'algorithme*") : [
107 "CurrentIterationNumber",
112 "SimulatedObservationAtBackground",
113 "SimulatedObservationAtCurrentState",
114 "SimulatedObservationAtOptimum",
118 ``{"StoreSupplementaryCalculations":["CurrentState", "Residu"]}``
120 .. ------------------------------------ ..
121 .. include:: snippets/Header2Algo04.rst
123 .. include:: snippets/Analysis.rst
125 .. include:: snippets/CostFunctionJ.rst
127 .. include:: snippets/CostFunctionJb.rst
129 .. include:: snippets/CostFunctionJo.rst
131 .. ------------------------------------ ..
132 .. include:: snippets/Header2Algo05.rst
134 .. include:: snippets/Analysis.rst
136 .. include:: snippets/BMA.rst
138 .. include:: snippets/CostFunctionJ.rst
140 .. include:: snippets/CostFunctionJb.rst
142 .. include:: snippets/CostFunctionJo.rst
144 .. include:: snippets/CurrentIterationNumber.rst
146 .. include:: snippets/CurrentState.rst
148 .. include:: snippets/Innovation.rst
150 .. include:: snippets/OMA.rst
152 .. include:: snippets/OMB.rst
154 .. include:: snippets/SimulatedObservationAtBackground.rst
156 .. include:: snippets/SimulatedObservationAtCurrentState.rst
158 .. include:: snippets/SimulatedObservationAtOptimum.rst
160 .. ------------------------------------ ..
161 .. _section_ref_algorithm_TabuSearch_examples:
163 .. include:: snippets/Header2Algo06.rst
165 - :ref:`section_ref_algorithm_DerivativeFreeOptimization`
166 - :ref:`section_ref_algorithm_DifferentialEvolution`
167 - :ref:`section_ref_algorithm_ParticleSwarmOptimization`
169 .. ------------------------------------ ..
170 .. include:: snippets/Header2Algo07.rst