]> SALOME platform Git repositories - modules/adao.git/commitdiff
Salome HOME
Documentation minor corrections and improvements
authorJean-Philippe ARGAUD <jean-philippe.argaud@edf.fr>
Mon, 9 Nov 2020 17:31:49 +0000 (18:31 +0100)
committerJean-Philippe ARGAUD <jean-philippe.argaud@edf.fr>
Mon, 9 Nov 2020 17:31:49 +0000 (18:31 +0100)
doc/en/snippets/APosterioriCorrelations.rst
doc/en/snippets/APosterioriCovariance.rst
doc/en/snippets/APosterioriStandardDeviations.rst
doc/en/snippets/APosterioriVariances.rst
doc/en/theory.rst
doc/fr/theory.rst

index 82e57ddd40d7b39eee97ee22d38552d5def45edf..5e03b57fd254505a6f4e23f276e0c991130d2857 100644 (file)
@@ -2,7 +2,7 @@
 
 APosterioriCorrelations
   *List of matrices*. Each element is an *a posteriori* error correlations
-  matrix of the optimal state, coming from the :math:`\mathbf{A}*` covariance
+  matrix of the optimal state, coming from the :math:`\mathbf{A}` covariance
   matrix. In order to get them, this *a posteriori* error covariances
   calculation has to be requested at the same time.
 
index 17d1193676a71abd9ed8f9be043e4fb10066554a..e0213ee2bf5b890626abf1a73ab289a9ed8f9a52 100644 (file)
@@ -2,7 +2,7 @@
 
 APosterioriCovariance
   *List of matrices*. Each element is an *a posteriori* error covariance
-  matrix :math:`\mathbf{A}*` of the optimal state.
+  matrix :math:`\mathbf{A}` of the optimal state.
 
   Example:
   ``A = ADD.get("APosterioriCovariance")[-1]``
index a95ca4a15d457994517046e106d34ddf471215f1..eecc25621a0a457381aeef535505faf8037a952b 100644 (file)
@@ -2,7 +2,7 @@
 
 APosterioriStandardDeviations
   *List of matrices*. Each element is an *a posteriori* error standard errors
-  diagonal matrix of the optimal state, coming from the :math:`\mathbf{A}*`
+  diagonal matrix of the optimal state, coming from the :math:`\mathbf{A}`
   covariance matrix. In order to get them, this *a posteriori* error
   covariances calculation has to be requested at the same time.
 
index 89e6b1f3e9e80cdae1695d0ac3cbb61875a2e2e6..6ecedd958e614b8efb7ed540712a940cdd25311b 100644 (file)
@@ -2,7 +2,7 @@
 
 APosterioriVariances
   *List of matrices*. Each element is an *a posteriori* error variance errors
-  diagonal matrix of the optimal state, coming from the :math:`\mathbf{A}*`
+  diagonal matrix of the optimal state, coming from the :math:`\mathbf{A}`
   covariance matrix. In order to get them, this *a posteriori* error
   covariances calculation has to be requested at the same time.
 
index d6b6f5c35012c46be02294a1891a0c139be04d1b..8354a72866d1a750f79a0032a51747aa6b91eca7 100644 (file)
@@ -164,17 +164,18 @@ parameters that would give exactly the observations (assuming that the errors
 are zero and the model is exact) as output.
 
 In the simplest case, which is static, the steps of simulation and of
-observation can be combined into a single observation operator noted :math:`H`
-(linear or nonlinear). It transforms the input parameters :math:`\mathbf{x}` to
-results :math:`\mathbf{y}`, to be directly compared to observations
-:math:`\mathbf{y}^o`:
+observation can be combined into a single observation operator noted
+:math:`\mathcal{H}` (linear or nonlinear). It transforms the input parameters
+:math:`\mathbf{x}` to results :math:`\mathbf{y}`, to be directly compared to
+observations :math:`\mathbf{y}^o`:
 
-.. math:: \mathbf{y} = H(\mathbf{x})
+.. math:: \mathbf{y} = \mathcal{H}(\mathbf{x})
 
 Moreover, we use the linearized operator :math:`\mathbf{H}` to represent the
-effect of the full operator :math:`H` around a linearization point (and we omit
-thereafter to mention :math:`H` even if it is possible to keep it). In reality,
-we have already indicated that the stochastic nature of variables is essential,
+effect of the full operator :math:`\mathcal{H}` around a linearization point
+(and we will usually omit thereafter to mention :math:`\mathcal{H}`, even if it
+is possible to keep it, to mention only :math:`\mathbf{H}`). In reality, we
+have already indicated that the stochastic nature of variables is essential,
 coming from the fact that model, background and observations are all incorrect.
 We therefore introduce errors of observations additively, in the form of a
 random vector :math:`\mathbf{\epsilon}^o` such that:
@@ -243,8 +244,9 @@ The advantage of filtering is to explicitly calculate the gain, to produce then
 the *a posteriori* covariance analysis matrix.
 
 In this simple static case, we can show, under an assumption of Gaussian error
-distributions (very little restrictive in practice) and of :math:`H` linearity,
-that the two *variational* and *filtering* approaches give the same solution.
+distributions (very little restrictive in practice) and of :math:`\mathcal{H}`
+linearity, that the two *variational* and *filtering* approaches give the same
+solution.
 
 It is indicated here that these methods of "*3D-VAR*" and "*BLUE*" may be
 extended to dynamic problems, called respectively "*4D-VAR*" and "*Kalman
@@ -273,6 +275,7 @@ Going further in the data assimilation framework
 .. index:: single: meta-heuristics
 .. index:: single: model reduction
 .. index:: single: optimal interpolation
+.. index:: single: parameter adjustment
 .. index:: single: parameter estimation
 .. index:: single: quadratic optimization
 .. index:: single: regularization methods
@@ -298,13 +301,13 @@ terms can be used in bibliographical searches.
 
 Some aspects of data assimilation are also known by other names. Without being
 exhaustive, we can mention the names of *calibration*, *adjustment*, *state
-estimation*, *parameter estimation*, *inverse problems* or *inversion*,
-*Bayesian estimation*, *field interpolation* or *optimal interpolation*,
-*variational optimization*, *quadratic optimization*, *mathematical
-regularization*, *meta-heuristics for optimization*, *model reduction*, *data
-smoothing*, *data-driven* modeling, model and data learning (*Machine Learning*
-and *Artificial Intelligence*), etc. These terms can be used in bibliographic
-searches.
+estimation*, *parameter estimation*, *parameter adjustment*, *inverse problems*
+or *inversion*, *Bayesian estimation*, *field interpolation* or *optimal
+interpolation*, *variational optimization*, *quadratic optimization*,
+*mathematical regularization*, *meta-heuristics for optimization*, *model
+reduction*, *data smoothing*, *data-driven* modeling, model and data learning
+(*Machine Learning* and *Artificial Intelligence*), etc. These terms can be
+used in bibliographic searches.
 
 Going further in the state estimation by optimization methods
 -------------------------------------------------------------
index aaa2765644703b3a35f3d30d0bf3a80c56574032..a82455930d6b90ef17ae576a3903afde6c1a1904 100644 (file)
@@ -100,19 +100,20 @@ temps précédent. On doit donc faire la reconstruction d'un champ en tout point
 de l'espace, de manière "cohérente" avec les équations d'évolution et avec les
 mesures aux précédents pas de temps.
 
-Identification de paramètres, ajustement de modèles, calibration
-----------------------------------------------------------------
+Identification de paramètres, ajustement de modèles, calage
+-----------------------------------------------------------
 
 .. index:: single: identification de paramètres
 .. index:: single: ajustement de paramètres
 .. index:: single: ajustement de modèles
-.. index:: single: calibration
+.. index:: single: recalage
+.. index:: single: calage
 .. index:: single: ébauche
 .. index:: single: régularisation
 .. index:: single: problèmes inverses
 
-L'**identification (ou l'ajustement) de paramètres** par assimilation de données
-est une forme de calibration d'état qui utilise simultanément les mesures
+L'**identification (ou l'ajustement) de paramètres** par assimilation de
+données est une forme de calage d'état qui utilise simultanément les mesures
 physiques et une estimation *a priori* des paramètres (appelée l'"*ébauche*")
 d'état que l'on cherche à identifier, ainsi qu'une caractérisation de leurs
 erreurs. De ce point de vue, cette démarche utilise toutes les informations
@@ -121,16 +122,17 @@ réalistes sur les erreurs, pour trouver l'"*estimation optimale*" de l'état
 vrai. On peut noter, en termes d'optimisation, que l'ébauche réalise la
 "*régularisation*", au sens mathématique de Tikhonov [Tikhonov77]_
 [WikipediaTI]_, du problème principal d'identification de paramètres. On peut
-aussi désigner cette démarche comme une résolution de type "*problème inverse*".
+aussi désigner cette démarche comme une résolution de type "*problème
+inverse*".
 
 En pratique, les deux écarts (ou incréments) observés "*calculs-mesures*" et
-"*calculs-ébauche*" sont combinés pour construire la correction de calibration
-des paramètres ou des conditions initiales. L'ajout de ces deux incréments
-requiert une pondération relative, qui est choisie pour refléter la confiance
-que l'on donne à chaque information utilisée. Cette confiance est représentée
-par la covariance des erreurs sur l'ébauche et sur les observations. Ainsi
-l'aspect stochastique des informations est essentiel pour construire une
-fonction d'erreur pour la calibration.
+"*calculs-ébauche*" sont combinés pour construire la correction de calage des
+paramètres ou des conditions initiales. L'ajout de ces deux incréments requiert
+une pondération relative, qui est choisie pour refléter la confiance que l'on
+donne à chaque information utilisée. Cette confiance est représentée par la
+covariance des erreurs sur l'ébauche et sur les observations. Ainsi l'aspect
+stochastique des informations est essentiel pour construire une fonction
+d'erreur pour le calage.
 
 Un exemple simple d'identification de paramètres provient de tout type de
 simulation physique impliquant un modèle paramétré. Par exemple, une simulation
@@ -164,29 +166,30 @@ un champ discrétisé à reconstruire.
 
 Selon les notations standards en assimilation de données, on note
 :math:`\mathbf{x}^a` les paramètres optimaux qui doivent être déterminés par
-calibration, :math:`\mathbf{y}^o` les observations (ou les mesures
-expérimentales) auxquelles on doit comparer les sorties de simulation,
-:math:`\mathbf{x}^b` l'ébauche (valeurs *a priori*, ou valeurs de
-régularisation) des paramètres cherchés, :math:`\mathbf{x}^t` les paramètres
-inconnus idéaux qui donneraient exactement les observations (en supposant que
-toutes les erreurs soient nulles et que le modèle soit exact) en sortie.
+calage, :math:`\mathbf{y}^o` les observations (ou les mesures expérimentales)
+auxquelles on doit comparer les sorties de simulation, :math:`\mathbf{x}^b`
+l'ébauche (valeurs *a priori*, ou valeurs de régularisation) des paramètres
+cherchés, :math:`\mathbf{x}^t` les paramètres inconnus idéaux qui donneraient
+exactement les observations (en supposant que toutes les erreurs soient nulles
+et que le modèle soit exact) en sortie.
 
 Dans le cas le plus simple, qui est statique, les étapes de simulation et
 d'observation peuvent être combinées en un unique opérateur d'observation noté
-:math:`H` (linéaire ou non-linéaire). Il transforme formellement les paramètres
-:math:`\mathbf{x}` en entrée en résultats :math:`\mathbf{y}`, qui peuvent être
-directement comparés aux observations :math:`\mathbf{y}^o` :
+:math:`\mathcal{H}` (linéaire ou non-linéaire). Il transforme formellement les
+paramètres :math:`\mathbf{x}` en entrée en résultats :math:`\mathbf{y}`, qui
+peuvent être directement comparés aux observations :math:`\mathbf{y}^o` :
 
-.. math:: \mathbf{y} = H(\mathbf{x})
+.. math:: \mathbf{y} = \mathcal{H}(\mathbf{x})
 
 De plus, on utilise l'opérateur linéarisé (ou tangent) :math:`\mathbf{H}` pour
-représenter l'effet de l'opérateur complet :math:`H` autour d'un point de
-linéarisation (et on omettra ensuite de mentionner :math:`H` même si l'on peut
-le conserver). En réalité, on a déjà indiqué que la nature stochastique des
-variables est essentielle, provenant du fait que le modèle, l'ébauche et les
-observations sont tous incorrects. On introduit donc des erreurs d'observations
-additives, sous la forme d'un vecteur aléatoire :math:`\mathbf{\epsilon}^o` tel
-que :
+représenter l'effet de l'opérateur complet :math:`\mathcal{H}` autour d'un
+point de linéarisation (et on omettra usuellement ensuite de mentionner
+:math:`\mathcal{H}`, même si l'on peut le conserver, pour ne mentionner que
+:math:`\mathbf{H}`). En réalité, on a déjà indiqué que la nature stochastique
+des variables est essentielle, provenant du fait que le modèle, l'ébauche et
+les observations sont tous incorrects. On introduit donc des erreurs
+d'observations additives, sous la forme d'un vecteur aléatoire
+:math:`\mathbf{\epsilon}^o` tel que :
 
 .. math:: \mathbf{y}^o = \mathbf{H} \mathbf{x}^t + \mathbf{\epsilon}^o
 
@@ -254,8 +257,8 @@ matrice *a posteriori* de covariance d'analyse.
 
 Dans ce cas statique simple, on peut montrer, sous une hypothèse de
 distributions gaussiennes d'erreurs (très peu restrictive en pratique) et de
-linéarité de :math:`H`, que les deux approches *variationnelle* et *de
-filtrage* donnent la même solution.
+linéarité de :math:`\mathcal{H}`, que les deux approches *variationnelle* et
+*de filtrage* donnent la même solution.
 
 On indique que ces méthodes de "*3D-VAR*" et de "*BLUE*" peuvent être étendues
 à des problèmes dynamiques, sous les noms respectifs de "*4D-VAR*" et de
@@ -271,7 +274,9 @@ contraintes informatiques comme la taille ou la durée des calculs.
 Approfondir le cadre méthodologique de l'assimilation de données
 ----------------------------------------------------------------
 
+.. index:: single: ajustement de paramètres
 .. index:: single: apprentissage
+.. index:: single: calage
 .. index:: single: calibration
 .. index:: single: data-driven
 .. index:: single: estimation bayésienne
@@ -309,14 +314,14 @@ cruciale.
 Certains aspects de l'assimilation de données sont aussi connus sous d'autres
 noms. Sans être exhaustif, on peut mentionner les noms de *calage* ou de
 *recalage*, de *calibration*, d'*estimation d'état*, d'*estimation de
-paramètres*, de *problèmes inverses* ou d'*inversion*, d'*estimation
-bayésienne*, d'*interpolation de champs* ou d'*interpolation optimale*,
-d'*optimisation variationnelle*, d'*optimisation quadratique*, de
-*régularisation mathématique*, de *méta-heuristiques* d'optimisation, de
-*réduction de modèles*, de *lissage de données*, de pilotage des modèles par
-les données (« *data-driven* »), d’*apprentissage* de modèles et de données
-(*Machine Learning* et Intelligence Artificielle), etc. Ces termes peuvent être
-utilisés dans les recherches bibliographiques.
+paramètres*, d'*ajustement de paramètres*, de *problèmes inverses* ou
+d'*inversion*, d'*estimation bayésienne*, d'*interpolation de champs* ou
+d'*interpolation optimale*, d'*optimisation variationnelle*, d'*optimisation
+quadratique*, de *régularisation mathématique*, de *méta-heuristiques*
+d'optimisation, de *réduction de modèles*, de *lissage de données*, de pilotage
+des modèles par les données (« *data-driven* »), d’*apprentissage* de modèles
+et de données (*Machine Learning* et Intelligence Artificielle), etc. Ces
+termes peuvent être utilisés dans les recherches bibliographiques.
 
 Approfondir l'estimation d'état par des méthodes d'optimisation
 ---------------------------------------------------------------