]> SALOME platform Git repositories - modules/adao.git/blob - doc/fr/ref_algorithm_ParticleSwarmOptimization.rst
Salome HOME
Illustrations corrections and improvements
[modules/adao.git] / doc / fr / ref_algorithm_ParticleSwarmOptimization.rst
1 ..
2    Copyright (C) 2008-2017 EDF R&D
3
4    This file is part of SALOME ADAO module.
5
6    This library is free software; you can redistribute it and/or
7    modify it under the terms of the GNU Lesser General Public
8    License as published by the Free Software Foundation; either
9    version 2.1 of the License, or (at your option) any later version.
10
11    This library is distributed in the hope that it will be useful,
12    but WITHOUT ANY WARRANTY; without even the implied warranty of
13    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14    Lesser General Public License for more details.
15
16    You should have received a copy of the GNU Lesser General Public
17    License along with this library; if not, write to the Free Software
18    Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
19
20    See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
21
22    Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
23
24 .. index:: single: ParticleSwarmOptimization
25 .. _section_ref_algorithm_ParticleSwarmOptimization:
26
27 Algorithme de calcul "*ParticleSwarmOptimization*"
28 --------------------------------------------------
29
30 Description
31 +++++++++++
32
33 Cet algorithme réalise une estimation de l'état d'un système dynamique par
34 minimisation d'une fonctionnelle d'écart :math:`J` en utilisant un essaim
35 particulaire. C'est une méthode qui n'utilise pas les dérivées de la
36 fonctionnelle d'écart. Elle entre dans la même catégorie que
37 l':ref:`section_ref_algorithm_DerivativeFreeOptimization`.
38
39 C'est une méthode d'optimisation permettant la recherche du minimum global d'une
40 fonctionnelle d'erreur :math:`J` quelconque de type :math:`L^1`, :math:`L^2` ou
41 :math:`L^{\infty}`, avec ou sans pondérations. La fonctionnelle d'erreur par
42 défaut est celle de moindres carrés pondérés augmentés, classiquement utilisée
43 en assimilation de données.
44
45 Commandes requises et optionnelles
46 ++++++++++++++++++++++++++++++++++
47
48 .. index:: single: AlgorithmParameters
49 .. index:: single: Background
50 .. index:: single: BackgroundError
51 .. index:: single: Observation
52 .. index:: single: ObservationError
53 .. index:: single: ObservationOperator
54 .. index:: single: MaximumNumberOfSteps
55 .. index:: single: MaximumNumberOfFunctionEvaluations
56 .. index:: single: NumberOfInsects
57 .. index:: single: SwarmVelocity
58 .. index:: single: GroupRecallRate
59 .. index:: single: QualityCriterion
60 .. index:: single: BoxBounds
61 .. index:: single: SetSeed
62 .. index:: single: StoreSupplementaryCalculations
63
64 Les commandes requises générales, disponibles dans l'interface en édition, sont
65 les suivantes:
66
67   Background
68     *Commande obligatoire*. Elle définit le vecteur d'ébauche ou
69     d'initialisation, noté précédemment :math:`\mathbf{x}^b`. Sa valeur est
70     définie comme un objet de type "*Vector*" ou de type "*VectorSerie*".
71
72   BackgroundError
73     *Commande obligatoire*. Elle définit la matrice de covariance des erreurs
74     d'ébauche, notée précédemment :math:`\mathbf{B}`. Sa valeur est définie
75     comme un objet de type "*Matrix*", de type "*ScalarSparseMatrix*", ou de
76     type "*DiagonalSparseMatrix*".
77
78   Observation
79     *Commande obligatoire*. Elle définit le vecteur d'observation utilisé en
80     assimilation de données ou en optimisation, et noté précédemment
81     :math:`\mathbf{y}^o`. Sa valeur est définie comme un objet de type "*Vector*"
82     ou de type "*VectorSerie*".
83
84   ObservationError
85     *Commande obligatoire*. Elle définit la matrice de covariance des erreurs
86     d'ébauche, notée précédemment :math:`\mathbf{R}`. Sa valeur est définie
87     comme un objet de type "*Matrix*", de type "*ScalarSparseMatrix*", ou de
88     type "*DiagonalSparseMatrix*".
89
90   ObservationOperator
91     *Commande obligatoire*. Elle indique l'opérateur d'observation, noté
92     précédemment :math:`H`, qui transforme les paramètres d'entrée
93     :math:`\mathbf{x}` en résultats :math:`\mathbf{y}` qui sont à comparer aux
94     observations :math:`\mathbf{y}^o`. Sa valeur est définie comme un objet de
95     type "*Function*" ou de type "*Matrix*". Dans le cas du type "*Function*",
96     différentes formes fonctionnelles peuvent être utilisées, comme décrit dans
97     la section :ref:`section_ref_operator_requirements`. Si un contrôle
98     :math:`U` est inclus dans le modèle d'observation, l'opérateur doit être
99     appliqué à une paire :math:`(X,U)`.
100
101 Les commandes optionnelles générales, disponibles dans l'interface en édition,
102 sont indiquées dans la :ref:`section_ref_assimilation_keywords`. De plus, les
103 paramètres de la commande "*AlgorithmParameters*" permettent d'indiquer les
104 options particulières, décrites ci-après, de l'algorithme. On se reportera à la
105 :ref:`section_ref_options_Algorithm_Parameters` pour le bon usage de cette
106 commande.
107
108 Les options de l'algorithme sont les suivantes:
109
110   MaximumNumberOfSteps
111     Cette clé indique le nombre maximum d'itérations possibles en optimisation
112     itérative. Le défaut est 50, qui est une limite arbitraire. Il est ainsi
113     recommandé d'adapter ce paramètre aux besoins pour des problèmes réels.
114
115     Exemple : ``{"MaximumNumberOfSteps":100}``
116
117   MaximumNumberOfFunctionEvaluations
118     Cette clé indique le nombre maximum d'évaluations possibles de la
119     fonctionnelle à optimiser. Le défaut est de 15000, qui est une limite
120     arbitraire. Il est ainsi recommandé d'adapter ce paramètre aux besoins pour
121     des problèmes réels. Pour certains optimiseurs, le nombre effectif
122     d'évaluations à l'arrêt peut être légèrement différent de la limite à cause
123     d'exigences de déroulement interne de l'algorithme.
124
125     Exemple : ``{"MaximumNumberOfFunctionEvaluations":50}``
126
127   NumberOfInsects
128     Cette clé indique le nombre d'insectes ou de particules dans l'essaim. La
129     valeur par défaut est 100, qui est une valeur par défaut usuelle pour cet
130     algorithme.
131
132     Exemple : ``{"NumberOfInsects":100}``
133
134   SwarmVelocity
135     Cette clé indique la part de la vitesse d'insecte qui est imposée par
136     l'essaim. C'est une valeur réelle positive. Le défaut est de 1.
137
138     Exemple : ``{"SwarmVelocity":1.}``
139
140   GroupRecallRate
141     Cette clé indique le taux de rappel vers le meilleur insecte de l'essaim.
142     C'est une valeur réelle comprise entre 0 et 1. Le défaut est de 0.5.
143
144     Exemple : ``{"GroupRecallRate":0.5}``
145
146   QualityCriterion
147     Cette clé indique le critère de qualité, qui est minimisé pour trouver
148     l'estimation optimale de l'état. Le défaut est le critère usuel de
149     l'assimilation de données nommé "DA", qui est le critère de moindres carrés
150     pondérés augmentés. Les critères possibles sont dans la liste suivante, dans
151     laquelle les noms équivalents sont indiqués par un signe "=" :
152     ["AugmentedWeightedLeastSquares"="AWLS"="DA", "WeightedLeastSquares"="WLS",
153     "LeastSquares"="LS"="L2", "AbsoluteValue"="L1",  "MaximumError"="ME"].
154
155     Exemple : ``{"QualityCriterion":"DA"}``
156
157   BoxBounds
158     Cette clé permet de définir des bornes supérieure et inférieure pour chaque
159     incrément de  variable d'état optimisée (et non pas chaque variable d'état
160     elle-même). Les bornes doivent être données par une liste de liste de paires
161     de bornes inférieure/supérieure pour chaque incrément de variable, avec une
162     valeur extrême chaque fois qu'il n'y a pas de borne (``None`` n'est pas une
163     valeur autorisée lorsqu'il n'y a pas de borne). Cette clé est requise et il
164     n'y a pas de valeurs par défaut.
165
166     Exemple : ``{"BoxBounds":[[-0.5,0.5], [0.01,2.], [0.,1.e99], [-1.e99,1.e99]]}``
167
168   SetSeed
169     Cette clé permet de donner un nombre entier pour fixer la graine du
170     générateur aléatoire utilisé pour générer l'ensemble. Un valeur pratique est
171     par exemple 1000. Par défaut, la graine est laissée non initialisée, et elle
172     utilise ainsi l'initialisation par défaut de l'ordinateur.
173
174     Exemple : ``{"SetSeed":1000}``
175
176   StoreSupplementaryCalculations
177     Cette liste indique les noms des variables supplémentaires qui peuvent être
178     disponibles à la fin de l'algorithme. Cela implique potentiellement des
179     calculs ou du stockage coûteux. La valeur par défaut est une liste vide,
180     aucune de ces variables n'étant calculée et stockée par défaut. Les noms
181     possibles sont dans la liste suivante : ["BMA", "CostFunctionJ",
182     "CostFunctionJb", "CostFunctionJo", "CurrentState", "OMA", "OMB",
183     "Innovation", "SimulatedObservationAtBackground",
184     "SimulatedObservationAtCurrentState", "SimulatedObservationAtOptimum"].
185
186     Exemple : ``{"StoreSupplementaryCalculations":["BMA", "Innovation"]}``
187
188 Informations et variables disponibles à la fin de l'algorithme
189 ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
190
191 En sortie, après exécution de l'algorithme, on dispose d'informations et de
192 variables issues du calcul. La description des
193 :ref:`section_ref_output_variables` indique la manière de les obtenir par la
194 méthode nommée ``get`` de la variable "*ADD*" du post-processing. Les variables
195 d'entrée, mises à disposition de l'utilisateur en sortie pour faciliter
196 l'écriture des procédures de post-processing, sont décrites dans
197 l':ref:`subsection_r_o_v_Inventaire`.
198
199 Les sorties non conditionnelles de l'algorithme sont les suivantes:
200
201   Analysis
202     *Liste de vecteurs*. Chaque élément est un état optimal :math:`\mathbf{x}*`
203     en optimisation ou une analyse :math:`\mathbf{x}^a` en assimilation de
204     données.
205
206     Exemple : ``Xa = ADD.get("Analysis")[-1]``
207
208   CostFunctionJ
209     *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
210     :math:`J`.
211
212     Exemple : ``J = ADD.get("CostFunctionJ")[:]``
213
214   CostFunctionJb
215     *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
216     :math:`J^b`, c'est-à-dire de la partie écart à l'ébauche.
217
218     Exemple : ``Jb = ADD.get("CostFunctionJb")[:]``
219
220   CostFunctionJo
221     *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
222     :math:`J^o`, c'est-à-dire de la partie écart à l'observation.
223
224     Exemple : ``Jo = ADD.get("CostFunctionJo")[:]``
225
226 Les sorties conditionnelles de l'algorithme sont les suivantes:
227
228   BMA
229     *Liste de vecteurs*. Chaque élément est un vecteur d'écart entre
230     l'ébauche et l'état optimal.
231
232     Exemple : ``bma = ADD.get("BMA")[-1]``
233
234   CurrentState
235     *Liste de vecteurs*. Chaque élément est un vecteur d'état courant utilisé
236     au cours du déroulement de l'algorithme d'optimisation.
237
238     Exemple : ``Xs = ADD.get("CurrentState")[:]``
239
240   Innovation
241     *Liste de vecteurs*. Chaque élément est un vecteur d'innovation, qui est
242     en statique l'écart de l'optimum à l'ébauche, et en dynamique l'incrément
243     d'évolution.
244
245     Exemple : ``d = ADD.get("Innovation")[-1]``
246
247   OMA
248     *Liste de vecteurs*. Chaque élément est un vecteur d'écart entre
249     l'observation et l'état optimal dans l'espace des observations.
250
251     Exemple : ``oma = ADD.get("OMA")[-1]``
252
253   OMB
254     *Liste de vecteurs*. Chaque élément est un vecteur d'écart entre
255     l'observation et l'état d'ébauche dans l'espace des observations.
256
257     Exemple : ``omb = ADD.get("OMB")[-1]``
258
259   SimulatedObservationAtBackground
260     *Liste de vecteurs*. Chaque élément est un vecteur d'observation simulé à
261     partir de l'ébauche :math:`\mathbf{x}^b`.
262
263     Exemple : ``hxb = ADD.get("SimulatedObservationAtBackground")[-1]``
264
265   SimulatedObservationAtCurrentState
266     *Liste de vecteurs*. Chaque élément est un vecteur observé à l'état courant,
267     c'est-à-dire dans l'espace des observations.
268
269     Exemple : ``Ys = ADD.get("SimulatedObservationAtCurrentState")[-1]``
270
271   SimulatedObservationAtOptimum
272     *Liste de vecteurs*. Chaque élément est un vecteur d'observation simulé à
273     partir de l'analyse ou de l'état optimal :math:`\mathbf{x}^a`.
274
275     Exemple : ``hxa = ADD.get("SimulatedObservationAtOptimum")[-1]``
276
277 Voir aussi
278 ++++++++++
279
280 Références vers d'autres sections :
281   - :ref:`section_ref_algorithm_DerivativeFreeOptimization`
282
283 Références bibliographiques :
284   - [WikipediaPSO]_