2 Copyright (C) 2008-2018 EDF R&D
4 This file is part of SALOME ADAO module.
6 This library is free software; you can redistribute it and/or
7 modify it under the terms of the GNU Lesser General Public
8 License as published by the Free Software Foundation; either
9 version 2.1 of the License, or (at your option) any later version.
11 This library is distributed in the hope that it will be useful,
12 but WITHOUT ANY WARRANTY; without even the implied warranty of
13 MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the GNU
14 Lesser General Public License for more details.
16 You should have received a copy of the GNU Lesser General Public
17 License along with this library; if not, write to the Free Software
18 Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
20 See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
22 Author: Jean-Philippe Argaud, jean-philippe.argaud@edf.fr, EDF R&D
24 .. index:: single: DerivativeFreeOptimization
25 .. _section_ref_algorithm_DerivativeFreeOptimization:
27 Algorithme de calcul "*DerivativeFreeOptimization*"
28 ---------------------------------------------------
33 Cet algorithme réalise une estimation d'état d'un système par minimisation
34 d'une fonctionnelle d'écart :math:`J` sans gradient. C'est une méthode qui
35 n'utilise pas les dérivées de la fonctionnelle d'écart. Elle entre, par
36 exemple, dans la même catégorie que
37 l':ref:`section_ref_algorithm_ParticleSwarmOptimization` ou
38 l':ref:`section_ref_algorithm_DifferentialEvolution`.
40 C'est une méthode d'optimisation permettant la recherche du minimum global d'une
41 fonctionnelle d'erreur :math:`J` quelconque de type :math:`L^1`, :math:`L^2` ou
42 :math:`L^{\infty}`, avec ou sans pondérations. La fonctionnelle d'erreur par
43 défaut est celle de moindres carrés pondérés augmentés, classiquement utilisée
44 en assimilation de données.
46 Commandes requises et optionnelles
47 ++++++++++++++++++++++++++++++++++
49 Les commandes requises générales, disponibles dans l'interface en édition, sont
52 .. include:: snippets/Background.rst
54 .. include:: snippets/BackgroundError.rst
56 .. include:: snippets/Observation.rst
58 .. include:: snippets/ObservationError.rst
60 .. include:: snippets/ObservationOperator.rst
62 Les commandes optionnelles générales, disponibles dans l'interface en édition,
63 sont indiquées dans la :ref:`section_ref_assimilation_keywords`. De plus, les
64 paramètres de la commande "*AlgorithmParameters*" permettent d'indiquer les
65 options particulières, décrites ci-après, de l'algorithme. On se reportera à la
66 :ref:`section_ref_options_Algorithm_Parameters` pour le bon usage de cette
69 Les options de l'algorithme sont les suivantes:
71 .. include:: snippets/Minimizer_DFO.rst
73 .. include:: snippets/BoundsWithNone.rst
75 .. include:: snippets/MaximumNumberOfSteps.rst
77 .. include:: snippets/MaximumNumberOfFunctionEvaluations.rst
79 .. include:: snippets/StateVariationTolerance.rst
81 .. include:: snippets/CostDecrementTolerance.rst
83 .. include:: snippets/QualityCriterion.rst
85 StoreSupplementaryCalculations
86 .. index:: single: StoreSupplementaryCalculations
88 Cette liste indique les noms des variables supplémentaires qui peuvent être
89 disponibles à la fin de l'algorithme. Cela implique potentiellement des
90 calculs ou du stockage coûteux. La valeur par défaut est une liste vide,
91 aucune de ces variables n'étant calculée et stockée par défaut. Les noms
92 possibles sont dans la liste suivante : ["BMA", "CostFunctionJ",
93 "CostFunctionJAtCurrentOptimum", "CostFunctionJb",
94 "CostFunctionJbAtCurrentOptimum", "CostFunctionJo",
95 "CostFunctionJoAtCurrentOptimum", "CurrentOptimum", "CurrentState",
96 "IndexOfOptimum", "Innovation", "InnovationAtCurrentState", "OMA", "OMB",
97 "SimulatedObservationAtBackground", "SimulatedObservationAtCurrentOptimum",
98 "SimulatedObservationAtCurrentState", "SimulatedObservationAtOptimum"].
101 ``{"StoreSupplementaryCalculations":["BMA", "Innovation"]}``
103 Informations et variables disponibles à la fin de l'algorithme
104 ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
106 En sortie, après exécution de l'algorithme, on dispose d'informations et de
107 variables issues du calcul. La description des
108 :ref:`section_ref_output_variables` indique la manière de les obtenir par la
109 méthode nommée ``get`` de la variable "*ADD*" du post-processing. Les variables
110 d'entrée, mises à disposition de l'utilisateur en sortie pour faciliter
111 l'écriture des procédures de post-processing, sont décrites dans
112 l':ref:`subsection_r_o_v_Inventaire`.
114 Les sorties non conditionnelles de l'algorithme sont les suivantes:
116 .. include:: snippets/Analysis.rst
118 .. include:: snippets/CostFunctionJ.rst
120 .. include:: snippets/CostFunctionJb.rst
122 .. include:: snippets/CostFunctionJo.rst
124 .. include:: snippets/CurrentState.rst
126 Les sorties conditionnelles de l'algorithme sont les suivantes:
128 .. include:: snippets/BMA.rst
130 .. include:: snippets/CostFunctionJAtCurrentOptimum.rst
132 .. include:: snippets/CostFunctionJbAtCurrentOptimum.rst
134 .. include:: snippets/CostFunctionJoAtCurrentOptimum.rst
136 .. include:: snippets/CurrentOptimum.rst
138 .. include:: snippets/IndexOfOptimum.rst
140 .. include:: snippets/Innovation.rst
142 .. include:: snippets/InnovationAtCurrentState.rst
144 .. include:: snippets/OMA.rst
146 .. include:: snippets/OMB.rst
148 .. include:: snippets/SimulatedObservationAtBackground.rst
150 .. include:: snippets/SimulatedObservationAtCurrentOptimum.rst
152 .. include:: snippets/SimulatedObservationAtCurrentState.rst
154 .. include:: snippets/SimulatedObservationAtOptimum.rst
159 Références vers d'autres sections :
160 - :ref:`section_ref_algorithm_ParticleSwarmOptimization`
161 - :ref:`section_ref_algorithm_DifferentialEvolution`
163 Références bibliographiques :