2 Copyright (C) 2008-2017 EDF R&D
4 This file is part of SALOME ADAO module.
6 This library is free software; you can redistribute it and/or
7 modify it under the terms of the GNU Lesser General Public
8 License as published by the Free Software Foundation; either
9 version 2.1 of the License, or (at your option) any later version.
11 This library is distributed in the hope that it will be useful,
12 but WITHOUT ANY WARRANTY; without even the implied warranty of
13 MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the GNU
14 Lesser General Public License for more details.
16 You should have received a copy of the GNU Lesser General Public
17 License along with this library; if not, write to the Free Software
18 Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
20 See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
22 Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
24 .. index:: single: ParticleSwarmOptimization
25 .. _section_ref_algorithm_ParticleSwarmOptimization:
27 Algorithme de calcul "*ParticleSwarmOptimization*"
28 --------------------------------------------------
33 Cet algorithme réalise une estimation de l'état d'un système dynamique par
34 minimisation d'une fonctionnelle d'écart :math:`J` en utilisant un essaim
35 particulaire. C'est une méthode qui n'utilise pas les dérivées de la
36 fonctionnelle d'écart. Elle entre dans la même catégorie que
37 l':ref:`section_ref_algorithm_DerivativeFreeOptimization`.
39 C'est une méthode d'optimisation permettant la recherche du minimum global d'une
40 fonctionnelle d'erreur :math:`J` quelconque de type :math:`L^1`, :math:`L^2` ou
41 :math:`L^{\infty}`, avec ou sans pondérations. La fonctionnelle d'erreur par
42 défaut est celle de moindres carrés pondérés augmentés, classiquement utilisée
43 en assimilation de données.
45 Commandes requises et optionnelles
46 ++++++++++++++++++++++++++++++++++
48 .. index:: single: AlgorithmParameters
49 .. index:: single: Background
50 .. index:: single: BackgroundError
51 .. index:: single: Observation
52 .. index:: single: ObservationError
53 .. index:: single: ObservationOperator
54 .. index:: single: MaximumNumberOfSteps
55 .. index:: single: MaximumNumberOfFunctionEvaluations
56 .. index:: single: NumberOfInsects
57 .. index:: single: SwarmVelocity
58 .. index:: single: GroupRecallRate
59 .. index:: single: QualityCriterion
60 .. index:: single: BoxBounds
61 .. index:: single: SetSeed
62 .. index:: single: StoreSupplementaryCalculations
64 Les commandes requises générales, disponibles dans l'interface en édition, sont
68 *Commande obligatoire*. Elle définit le vecteur d'ébauche ou
69 d'initialisation, noté précédemment :math:`\mathbf{x}^b`. Sa valeur est
70 définie comme un objet de type "*Vector*" ou de type "*VectorSerie*".
73 *Commande obligatoire*. Elle définit la matrice de covariance des erreurs
74 d'ébauche, notée précédemment :math:`\mathbf{B}`. Sa valeur est définie
75 comme un objet de type "*Matrix*", de type "*ScalarSparseMatrix*", ou de
76 type "*DiagonalSparseMatrix*".
79 *Commande obligatoire*. Elle définit le vecteur d'observation utilisé en
80 assimilation de données ou en optimisation, et noté précédemment
81 :math:`\mathbf{y}^o`. Sa valeur est définie comme un objet de type "*Vector*"
82 ou de type "*VectorSerie*".
85 *Commande obligatoire*. Elle définit la matrice de covariance des erreurs
86 d'ébauche, notée précédemment :math:`\mathbf{R}`. Sa valeur est définie
87 comme un objet de type "*Matrix*", de type "*ScalarSparseMatrix*", ou de
88 type "*DiagonalSparseMatrix*".
91 *Commande obligatoire*. Elle indique l'opérateur d'observation, noté
92 précédemment :math:`H`, qui transforme les paramètres d'entrée
93 :math:`\mathbf{x}` en résultats :math:`\mathbf{y}` qui sont à comparer aux
94 observations :math:`\mathbf{y}^o`. Sa valeur est définie comme un objet de
95 type "*Function*" ou de type "*Matrix*". Dans le cas du type "*Function*",
96 différentes formes fonctionnelles peuvent être utilisées, comme décrit dans
97 la section :ref:`section_ref_operator_requirements`. Si un contrôle
98 :math:`U` est inclus dans le modèle d'observation, l'opérateur doit être
99 appliqué à une paire :math:`(X,U)`.
101 Les commandes optionnelles générales, disponibles dans l'interface en édition,
102 sont indiquées dans la :ref:`section_ref_assimilation_keywords`. De plus, les
103 paramètres de la commande "*AlgorithmParameters*" permettent d'indiquer les
104 options particulières, décrites ci-après, de l'algorithme. On se reportera à la
105 :ref:`section_ref_options_Algorithm_Parameters` pour le bon usage de cette
108 Les options de l'algorithme sont les suivantes:
111 Cette clé indique le nombre maximum d'itérations possibles en optimisation
112 itérative. Le défaut est 50, qui est une limite arbitraire. Il est ainsi
113 recommandé d'adapter ce paramètre aux besoins pour des problèmes réels.
115 Exemple : ``{"MaximumNumberOfSteps":100}``
117 MaximumNumberOfFunctionEvaluations
118 Cette clé indique le nombre maximum d'évaluations possibles de la
119 fonctionnelle à optimiser. Le défaut est de 15000, qui est une limite
120 arbitraire. Il est ainsi recommandé d'adapter ce paramètre aux besoins pour
121 des problèmes réels. Pour certains optimiseurs, le nombre effectif
122 d'évaluations à l'arrêt peut être légèrement différent de la limite à cause
123 d'exigences de déroulement interne de l'algorithme.
125 Exemple : ``{"MaximumNumberOfFunctionEvaluations":50}``
128 Cette clé indique le nombre d'insectes ou de particules dans l'essaim. La
129 valeur par défaut est 100, qui est une valeur par défaut usuelle pour cet
132 Exemple : ``{"NumberOfInsects":100}``
135 Cette clé indique la part de la vitesse d'insecte qui est imposée par
136 l'essaim. C'est une valeur réelle positive. Le défaut est de 1.
138 Exemple : ``{"SwarmVelocity":1.}``
141 Cette clé indique le taux de rappel vers le meilleur insecte de l'essaim.
142 C'est une valeur réelle comprise entre 0 et 1. Le défaut est de 0.5.
144 Exemple : ``{"GroupRecallRate":0.5}``
147 Cette clé indique le critère de qualité, qui est minimisé pour trouver
148 l'estimation optimale de l'état. Le défaut est le critère usuel de
149 l'assimilation de données nommé "DA", qui est le critère de moindres carrés
150 pondérés augmentés. Les critères possibles sont dans la liste suivante, dans
151 laquelle les noms équivalents sont indiqués par un signe "=" :
152 ["AugmentedWeightedLeastSquares"="AWLS"="DA", "WeightedLeastSquares"="WLS",
153 "LeastSquares"="LS"="L2", "AbsoluteValue"="L1", "MaximumError"="ME"].
155 Exemple : ``{"QualityCriterion":"DA"}``
158 Cette clé permet de définir des bornes supérieure et inférieure pour chaque
159 incrément de variable d'état optimisée (et non pas chaque variable d'état
160 elle-même). Les bornes doivent être données par une liste de liste de paires
161 de bornes inférieure/supérieure pour chaque incrément de variable, avec une
162 valeur extrême chaque fois qu'il n'y a pas de borne (``None`` n'est pas une
163 valeur autorisée lorsqu'il n'y a pas de borne). Cette clé est requise et il
164 n'y a pas de valeurs par défaut.
166 Exemple : ``{"BoxBounds":[[-0.5,0.5], [0.01,2.], [0.,1.e99], [-1.e99,1.e99]]}``
169 Cette clé permet de donner un nombre entier pour fixer la graine du
170 générateur aléatoire utilisé pour générer l'ensemble. Un valeur pratique est
171 par exemple 1000. Par défaut, la graine est laissée non initialisée, et elle
172 utilise ainsi l'initialisation par défaut de l'ordinateur.
174 Exemple : ``{"SetSeed":1000}``
176 StoreSupplementaryCalculations
177 Cette liste indique les noms des variables supplémentaires qui peuvent être
178 disponibles à la fin de l'algorithme. Cela implique potentiellement des
179 calculs ou du stockage coûteux. La valeur par défaut est une liste vide,
180 aucune de ces variables n'étant calculée et stockée par défaut. Les noms
181 possibles sont dans la liste suivante : ["BMA", "CostFunctionJ",
182 "CostFunctionJb", "CostFunctionJo", "CurrentState", "OMA", "OMB",
183 "Innovation", "SimulatedObservationAtBackground",
184 "SimulatedObservationAtCurrentState", "SimulatedObservationAtOptimum"].
186 Exemple : ``{"StoreSupplementaryCalculations":["BMA", "Innovation"]}``
188 Informations et variables disponibles à la fin de l'algorithme
189 ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
191 En sortie, après exécution de l'algorithme, on dispose d'informations et de
192 variables issues du calcul. La description des
193 :ref:`section_ref_output_variables` indique la manière de les obtenir par la
194 méthode nommée ``get`` de la variable "*ADD*" du post-processing. Les variables
195 d'entrée, mises à disposition de l'utilisateur en sortie pour faciliter
196 l'écriture des procédures de post-processing, sont décrites dans
197 l':ref:`subsection_r_o_v_Inventaire`.
199 Les sorties non conditionnelles de l'algorithme sont les suivantes:
202 *Liste de vecteurs*. Chaque élément est un état optimal :math:`\mathbf{x}*`
203 en optimisation ou une analyse :math:`\mathbf{x}^a` en assimilation de
206 Exemple : ``Xa = ADD.get("Analysis")[-1]``
209 *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
212 Exemple : ``J = ADD.get("CostFunctionJ")[:]``
215 *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
216 :math:`J^b`, c'est-à-dire de la partie écart à l'ébauche.
218 Exemple : ``Jb = ADD.get("CostFunctionJb")[:]``
221 *Liste de valeurs*. Chaque élément est une valeur de fonctionnelle d'écart
222 :math:`J^o`, c'est-à-dire de la partie écart à l'observation.
224 Exemple : ``Jo = ADD.get("CostFunctionJo")[:]``
226 Les sorties conditionnelles de l'algorithme sont les suivantes:
229 *Liste de vecteurs*. Chaque élément est un vecteur d'écart entre
230 l'ébauche et l'état optimal.
232 Exemple : ``bma = ADD.get("BMA")[-1]``
235 *Liste de vecteurs*. Chaque élément est un vecteur d'état courant utilisé
236 au cours du déroulement de l'algorithme d'optimisation.
238 Exemple : ``Xs = ADD.get("CurrentState")[:]``
241 *Liste de vecteurs*. Chaque élément est un vecteur d'innovation, qui est
242 en statique l'écart de l'optimum à l'ébauche, et en dynamique l'incrément
245 Exemple : ``d = ADD.get("Innovation")[-1]``
248 *Liste de vecteurs*. Chaque élément est un vecteur d'écart entre
249 l'observation et l'état optimal dans l'espace des observations.
251 Exemple : ``oma = ADD.get("OMA")[-1]``
254 *Liste de vecteurs*. Chaque élément est un vecteur d'écart entre
255 l'observation et l'état d'ébauche dans l'espace des observations.
257 Exemple : ``omb = ADD.get("OMB")[-1]``
259 SimulatedObservationAtBackground
260 *Liste de vecteurs*. Chaque élément est un vecteur d'observation simulé à
261 partir de l'ébauche :math:`\mathbf{x}^b`.
263 Exemple : ``hxb = ADD.get("SimulatedObservationAtBackground")[-1]``
265 SimulatedObservationAtCurrentState
266 *Liste de vecteurs*. Chaque élément est un vecteur observé à l'état courant,
267 c'est-à-dire dans l'espace des observations.
269 Exemple : ``Ys = ADD.get("SimulatedObservationAtCurrentState")[-1]``
271 SimulatedObservationAtOptimum
272 *Liste de vecteurs*. Chaque élément est un vecteur d'observation simulé à
273 partir de l'analyse ou de l'état optimal :math:`\mathbf{x}^a`.
275 Exemple : ``hxa = ADD.get("SimulatedObservationAtOptimum")[-1]``
280 Références vers d'autres sections :
281 - :ref:`section_ref_algorithm_DerivativeFreeOptimization`
283 Références bibliographiques :