]> SALOME platform Git repositories - modules/adao.git/commitdiff
Salome HOME
Minor documentation update on objective functions
authorJean-Philippe ARGAUD <jean-philippe.argaud@edf.fr>
Thu, 19 Nov 2020 19:55:32 +0000 (20:55 +0100)
committerJean-Philippe ARGAUD <jean-philippe.argaud@edf.fr>
Thu, 19 Nov 2020 19:55:32 +0000 (20:55 +0100)
doc/en/theory.rst
doc/fr/theory.rst

index 8354a72866d1a750f79a0032a51747aa6b91eca7..82066892c8663c2088de350f0320737c9d832ba1 100644 (file)
@@ -318,15 +318,16 @@ Going further in the state estimation by optimization methods
 .. index:: single: ParticleSwarmOptimization
 .. index:: single: DifferentialEvolution
 .. index:: single: QuantileRegression
+.. index:: single: QualityCriterion
 
 As seen before, in a static simulation case, the variational data assimilation
 requires to minimize the goal function :math:`J`:
 
-.. math:: J(\mathbf{x})=(\mathbf{x}-\mathbf{x}^b)^T.\mathbf{B}^{-1}.(\mathbf{x}-\mathbf{x}^b)+(\mathbf{y}^o-\mathbf{H}.\mathbf{x})^T.\mathbf{R}^{-1}.(\mathbf{y}^o-\mathbf{H}.\mathbf{x})
+.. math:: J(\mathbf{x})=\frac{1}{2}(\mathbf{x}-\mathbf{x}^b)^T.\mathbf{B}^{-1}.(\mathbf{x}-\mathbf{x}^b)+\frac{1}{2}(\mathbf{y}^o-\mathbf{H}.\mathbf{x})^T.\mathbf{R}^{-1}.(\mathbf{y}^o-\mathbf{H}.\mathbf{x})
 
-which is named the "*3D-VAR*" function. It can be seen as a *least squares
-minimization* extented form, obtained by adding a regularizing term using
-:math:`\mathbf{x}-\mathbf{x}^b`, and by weighting the differences using
+which is named the "*3D-VAR*" objective function. It can be seen as a *least
+squares minimization* extented form, obtained by adding a regularizing term
+using :math:`\mathbf{x}-\mathbf{x}^b`, and by weighting the differences using
 :math:`\mathbf{B}` and :math:`\mathbf{R}` the two covariance matrices. The
 minimization of the :math:`J` function leads to the *best* :math:`\mathbf{x}`
 state estimation. To get more information about these notions, one can consult
@@ -341,7 +342,7 @@ a single local minimum. But they require the goal function :math:`J` to be
 sufficiently regular and differentiable, and are not able to capture global
 properties of the minimization problem, for example: global minimum, set of
 equivalent solutions due to over-parametrization, multiple local minima, etc.
-**A way to extend estimation possibilities is then to use a whole range of
+**An approach to extend estimation possibilities is then to use a whole range of
 optimizers, allowing global minimization, various robust search properties,
 etc**. There is a lot of minimizing methods, such as stochastic ones,
 evolutionary ones, heuristics and meta-heuristics for real-valued problems,
@@ -362,12 +363,47 @@ classical gradient optimization. But other measures of errors can be more
 adapted to real physical simulation problems. Then, **an another way to extend
 estimation possibilities is to use other measures of errors to be reduced**.
 For example, we can cite *absolute error value*, *maximum error value*, etc.
-These error measures are not differentiable, but some optimization methods can
-deal with:  heuristics and meta-heuristics for real-valued problem, etc. As
-previously, the main drawback remain a greater numerical cost to find state
-estimates, and often a lack of guarantee of convergence in finite time. Here
-again, we only point the following methods as it is available in the ADAO
-module: *Particle swarm optimization* [WikipediaPSO]_.
+The most classical instances of error measurements are recalled or specified
+below, indicating their identifiers in ADAO for the possible selection of a
+quality criterion:
+
+- the objective function for the augmented weighted least squares error measurement (which is the basic default functional in all data assimilation algorithms, often named "*3DVAR*" objective function, and which is known for the quality criteria in ADAO as "*AugmentedWeightedLeastSquares*", "*AWLS*" or "*DA*") is:
+
+    .. index:: single: AugmentedWeightedLeastSquares (QualityCriterion)
+    .. index:: single: AWLS (QualityCriterion)
+    .. math:: J(\mathbf{x})=\frac{1}{2}(\mathbf{x}-\mathbf{x}^b)^T.\mathbf{B}^{-1}.(\mathbf{x}-\mathbf{x}^b)+\frac{1}{2}(\mathbf{y}^o-\mathbf{H}.\mathbf{x})^T.\mathbf{R}^{-1}.(\mathbf{y}^o-\mathbf{H}.\mathbf{x})
+
+- the objective function for the weighted least squares error measurement (which is the squared :math:`L^2` weighted norm of the innovation, with a :math:`1/2` coefficient to be homogeneous with the previous one, and which is known for the quality criteria in ADAO as "*WeightedLeastSquares*" or "*WLS*") is:
+
+    .. index:: single: WeightedLeastSquares (QualityCriterion)
+    .. index:: single: WLS (QualityCriterion)
+    .. math:: J(\mathbf{x})=\frac{1}{2}(\mathbf{y}^o-\mathbf{H}.\mathbf{x})^T.\mathbf{R}^{-1}.(\mathbf{y}^o-\mathbf{H}.\mathbf{x})
+
+- the objective function for the least squares error measurement (which is the squared :math:`L^2` norm of the innovation, with a :math:`1/2` coefficient to be homogeneous with the previous ones, and which is known for the quality criteria in ADAO as "*LeastSquares*", "*LS*" or "*L2*") is:
+
+    .. index:: single: LeastSquares (QualityCriterion)
+    .. index:: single: LS (QualityCriterion)
+    .. index:: single: L2 (QualityCriterion)
+    .. math:: J(\mathbf{x})=\frac{1}{2}(\mathbf{y}^o-\mathbf{H}.\mathbf{x})^T.(\mathbf{y}^o-\mathbf{H}.\mathbf{x})=\frac{1}{2}||\mathbf{y}^o-\mathbf{H}.\mathbf{x}||_{L^2}^2
+
+- the objective function for the absolute error value measurement (which is the :math:`L^1` norm of the innovation, and which is known for the quality criteria in ADAO as "*AbsoluteValue*" or "*L1*") is:
+
+    .. index:: single: AbsoluteValue (QualityCriterion)
+    .. index:: single: L1 (QualityCriterion)
+    .. math:: J(\mathbf{x})=||\mathbf{y}^o-\mathbf{H}.\mathbf{x}||_{L^1}
+
+- the objective function for the maximum error value measurement (which is the :math:`L^{\infty}` norm, and which is known for the quality criteria in ADAO as "*MaximumError*" or "*ME*") is:
+
+    .. index:: single: MaximumError (QualityCriterion)
+    .. index:: single: ME (QualityCriterion)
+    .. math:: J(\mathbf{x})=||\mathbf{y}^o-\mathbf{H}.\mathbf{x}||_{L^{\infty}}
+
+These error measures may be not differentiable for the last two, but some
+optimization methods can still handle them:  heuristics and meta-heuristics for
+real-valued problem, etc. As previously, the main drawback remain a greater
+numerical cost to find state estimates, and often a lack of guarantee of
+convergence in finite time. Here again, we only point the following methods as
+it is available in the ADAO module:
 
 - *Derivative Free Optimization (or DFO)* (see :ref:`section_ref_algorithm_DerivativeFreeOptimization`),
 - *Particle Swarm Optimization (or PSO)* (see :ref:`section_ref_algorithm_ParticleSwarmOptimization`),
index a82455930d6b90ef17ae576a3903afde6c1a1904..9e158b1e0c832f1751978dc785232feb0e681a03 100644 (file)
@@ -311,6 +311,12 @@ Il y a de nombreux champs d'applications scientifiques et technologiques dans
 lesquels l'utilisation efficace des données observées, mais incomplètes, est
 cruciale.
 
+Certains aspects de l'assimilation des données sont également connus sous le
+nom d'*estimation d'état*, d'*estimation de paramètres*, de *problèmes inverses*,
+d'*estimation bayésienne*, d'*interpolation optimale*, de *régularisation mathématique*,
+de *lissage des données*, etc. Ces termes peuvent être utilisés dans les recherches
+bibliographiques.
+
 Certains aspects de l'assimilation de données sont aussi connus sous d'autres
 noms. Sans être exhaustif, on peut mentionner les noms de *calage* ou de
 *recalage*, de *calibration*, d'*estimation d'état*, d'*estimation de
@@ -332,11 +338,12 @@ Approfondir l'estimation d'état par des méthodes d'optimisation
 .. index:: single: ParticleSwarmOptimization
 .. index:: single: DifferentialEvolution
 .. index:: single: QuantileRegression
+.. index:: single: QualityCriterion
 
 Comme vu précédemment, dans un cas de simulation statique, l'assimilation
 variationnelle de données nécessite de minimiser la fonction objectif :math:`J`:
 
-.. math:: J(\mathbf{x})=(\mathbf{x}-\mathbf{x}^b)^T.\mathbf{B}^{-1}.(\mathbf{x}-\mathbf{x}^b)+(\mathbf{y}^o-\mathbf{H}.\mathbf{x})^T.\mathbf{R}^{-1}.(\mathbf{y}^o-\mathbf{H}.\mathbf{x})
+.. math:: J(\mathbf{x})=\frac{1}{2}(\mathbf{x}-\mathbf{x}^b)^T.\mathbf{B}^{-1}.(\mathbf{x}-\mathbf{x}^b)+\frac{1}{2}(\mathbf{y}^o-\mathbf{H}.\mathbf{x})^T.\mathbf{R}^{-1}.(\mathbf{y}^o-\mathbf{H}.\mathbf{x})
 
 qui est dénommée la fonctionnelle du "*3D-VAR*". Elle peut être vue comme la
 forme étendue d'une *minimisation moindres carrés*, obtenue en ajoutant un terme
@@ -358,7 +365,7 @@ nécessitent que la fonctionnelle :math:`J` soit suffisamment régulière et
 différentiable, et elles ne sont pas en mesure de saisir des propriétés
 globales du problème de minimisation, comme par exemple : minimum global,
 ensemble de solutions équivalentes dues à une sur-paramétrisation, multiples
-minima locaux, etc. **Une méthode pour étendre les possibilités d'estimation
+minima locaux, etc. **Une démarche pour étendre les possibilités d'estimation
 consiste donc à utiliser l'ensemble des méthodes d'optimisation existantes,
 permettant la minimisation globale, diverses propriétés de robustesse de la
 recherche, etc**. Il existe de nombreuses méthodes de minimisation, comme les
@@ -381,14 +388,49 @@ fonctions objectifs sont bien adaptées à l'optimisation classique par gradient
 Mais d'autres mesures d'erreurs peuvent être mieux adaptées aux problèmes de
 simulation de la physique réelle. Ainsi, **une autre manière d'étendre les
 possibilités d'estimation consiste à utiliser d'autres mesures d'erreurs à
-réduire**. Par exemple, on peut citer une **erreur absolue**, une **erreur
-maximale**, etc. Ces mesures d'erreurs ne sont pas différentiables, mais
-certaines méthodes d'optimisation peuvent les traiter: heuristiques et
-méta-heuristiques pour les problèmes à valeurs réelles, etc. Comme
-précédemment, les principaux désavantages de ces méthodes sont un coût
-numérique souvent bien supérieur pour trouver les estimations d'états, et pas
-de garantie de convergence en temps fini. Ici encore, on ne mentionne que
-quelques méthodes qui sont disponibles dans ADAO :
+réduire**. Par exemple, on peut citer une *erreur en valeur absolue*, une
+*erreur maximale*, etc. On donne précisément ci-dessous les cas les plus
+classiques de mesures d'erreurs, en indiquant leur identifiant dans ADAO pour
+la sélection éventuelle d'un critère de qualité :
+
+- la fonction objectif pour la mesure d'erreur par moindres carrés pondérés et augmentés (qui est la fonctionnelle de base par défaut de tous les algorithmes en assimilation de données, souvent nommée la fonctionnelle du "*3D-VAR*", et qui est connue pour les critères de qualité dans ADAO sous les noms de "*AugmentedWeightedLeastSquares*", "*AWLS*" ou "*DA*") est :
+
+    .. index:: single: AugmentedWeightedLeastSquares (QualityCriterion)
+    .. index:: single: AWLS (QualityCriterion)
+    .. math:: J(\mathbf{x})=\frac{1}{2}(\mathbf{x}-\mathbf{x}^b)^T.\mathbf{B}^{-1}.(\mathbf{x}-\mathbf{x}^b)+\frac{1}{2}(\mathbf{y}^o-\mathbf{H}.\mathbf{x})^T.\mathbf{R}^{-1}.(\mathbf{y}^o-\mathbf{H}.\mathbf{x})
+
+- la fonction objectif pour la mesure d'erreur par moindres carrés pondérés (qui est le carré de la norme pondérée :math:`L^2` de l'innovation, avec un coefficient :math:`1/2` pour être homogène à la précédente, et qui est connue pour les critères de qualité dans ADAO sous les noms de "*WeightedLeastSquares*" ou "*WLS*") est :
+
+    .. index:: single: WeightedLeastSquares (QualityCriterion)
+    .. index:: single: WLS (QualityCriterion)
+    .. math:: J(\mathbf{x})=\frac{1}{2}(\mathbf{y}^o-\mathbf{H}.\mathbf{x})^T.\mathbf{R}^{-1}.(\mathbf{y}^o-\mathbf{H}.\mathbf{x})
+
+- la fonction objectif pour la mesure d'erreur par moindres carrés (qui est le carré de la norme :math:`L^2` de l'innovation, avec un coefficient :math:`1/2` pour être homogène aux précédentes, et qui est connue pour les critères de qualité dans ADAO sous les noms de "*LeastSquares*", "*LS*" ou "*L2*") est :
+
+    .. index:: single: LeastSquares (QualityCriterion)
+    .. index:: single: LS (QualityCriterion)
+    .. index:: single: L2 (QualityCriterion)
+    .. math:: J(\mathbf{x})=\frac{1}{2}(\mathbf{y}^o-\mathbf{H}.\mathbf{x})^T.(\mathbf{y}^o-\mathbf{H}.\mathbf{x})=\frac{1}{2}||\mathbf{y}^o-\mathbf{H}.\mathbf{x}||_{L^2}^2
+
+- la fonction objectif pour la mesure d'erreur en valeur absolue (qui est la norme :math:`L^1` de l'innovation, et qui est connue pour les critères de qualité dans ADAO sous les noms de "*AbsoluteValue*" ou "*L1*") est :
+
+    .. index:: single: AbsoluteValue (QualityCriterion)
+    .. index:: single: L1 (QualityCriterion)
+    .. math:: J(\mathbf{x})=||\mathbf{y}^o-\mathbf{H}.\mathbf{x}||_{L^1}
+
+- la fonction objectif pour la mesure d'erreur maximale (qui est la norme :math:`L^{\infty}` de l'innovation, et qui est connue pour les critères de qualité dans ADAO sous les noms de "*MaximumError*" ou "*ME*") est :
+
+    .. index:: single: MaximumError (QualityCriterion)
+    .. index:: single: ME (QualityCriterion)
+    .. math:: J(\mathbf{x})=||\mathbf{y}^o-\mathbf{H}.\mathbf{x}||_{L^{\infty}}
+
+Ces mesures d'erreurs peuvent ne être pas différentiables comme pour les deux
+dernières, mais certaines méthodes d'optimisation peuvent quand même les
+traiter : heuristiques et méta-heuristiques pour les problèmes à valeurs
+réelles, etc. Comme précédemment, les principaux désavantages de ces méthodes
+sont un coût numérique souvent bien supérieur pour trouver les estimations
+d'états, et pas de garantie de convergence en temps fini. Ici encore, on ne
+mentionne que quelques méthodes qui sont disponibles dans ADAO :
 
 - l'*optimisation sans dérivées (Derivative Free Optimization ou DFO)* (voir :ref:`section_ref_algorithm_DerivativeFreeOptimization`),
 - l'*optimisation par essaim de particules (Particle Swarm Optimization ou PSO)* (voir :ref:`section_ref_algorithm_ParticleSwarmOptimization`),