]> SALOME platform Git repositories - modules/adao.git/commitdiff
Salome HOME
Documentation update V9_10_0b
authorJean-Philippe ARGAUD <jean-philippe.argaud@edf.fr>
Sun, 9 Oct 2022 13:05:08 +0000 (15:05 +0200)
committerJean-Philippe ARGAUD <jean-philippe.argaud@edf.fr>
Sun, 9 Oct 2022 13:05:08 +0000 (15:05 +0200)
doc/en/index.rst
doc/en/theory.rst
doc/fr/index.rst
doc/fr/theory.rst

index 7716f7a52b8c1c82eabe8c8f04d9d2aa999fbe47..a36033b32023f92220af270784a366b4e438daef 100644 (file)
@@ -40,12 +40,12 @@ over time. It uses information coming from experimental measurements or
 observations, and from numerical *a priori* models, including information about
 their errors. Parts of the framework are also known under the names of
 *calibration*, *adjustment*, *state estimation*, *parameter estimation*,
-*parameter adjustment*, *inverse problems*, *Bayesian estimation*, *optimal
-interpolation*, *mathematical regularization*, *meta-heuristics for
-optimization*, *model reduction*, *data smoothing*, etc. More details can be
-found in the section :ref:`section_theory`. The ADAO module currently offers
-more than one hundred different algorithmic methods and allows the study of
-about 350 distinct applied problems.
+*parameter adjustment*, *inverse problems*, *inverse methods*, *Bayesian
+estimation*, *optimal interpolation*, *mathematical regularization*,
+*meta-heuristics for optimization*, *model reduction*, *data smoothing*, etc.
+More details can be found in the section :ref:`section_theory`. The ADAO module
+currently offers more than one hundred different algorithmic methods and allows
+the study of about 350 distinct applied problems.
 
 The documentation for this module is divided into several major categories,
 related to the **theoretical documentation** (indicated in the section title by
index 80b540a0eab451c5522d1645af5262c3b7371c7e..18a5c38c2fc0801830e03df5c98907d9782d3e7e 100644 (file)
 .. index:: single: observation
 .. index:: single: a priori
 .. index:: single: EstimationOf
+.. index:: single: analysis
 
 **Data Assimilation** is a general well established framework for computing the
 optimal estimate of the true state of a system, over time if necessary. It uses
 values obtained by combining both observations and *a priori* models, including
-information about their errors.
+information about their errors while simultaneously respecting constraints.
+This takes into account the laws of behavior or motion of the system through
+the equations of the model, and the way the measurements are physically related
+to the variables of the system.
 
 In other words, data assimilation merges measurement data of a system, that are
 the observations, with *a priori* system physical and mathematical knowledge,
-embedded in numerical models. The goal is to obtain the best possible estimate
-of the system real state and of its stochastic properties. Note that this real
-state (or "*true state*") cannot usually be reached, but can only be estimated.
-Moreover, despite the fact that the used information are stochastic by nature,
-data assimilation provides deterministic techniques in order to perform very
-efficiently the estimation.
+embedded in numerical models. The goal is to obtain the best possible estimate,
+called "*analysis*", of the system real state and of its stochastic properties.
+Note that this real state (or "*true state*") cannot usually be reached, but
+can only be estimated. Moreover, despite the fact that the used information are
+stochastic by nature, data assimilation provides deterministic techniques in
+order to perform very efficiently the estimation.
 
 Because data assimilation looks for the **best possible** estimate, its
 underlying procedure always integrates optimization in order to find this
index c5ed074a913be9b7f9e80d7ebab3bbcba3252bbe..6f7fac424b009aa9d741d7f8ec554ca241d4a2c8 100644 (file)
@@ -41,13 +41,13 @@ provenant de mesures expérimentales, ou observations, et de modèles numérique
 *a priori*, y compris des informations sur leurs erreurs. Certaines des
 méthodes incluses dans ce cadre sont également connues sous les noms de
 *calage* ou *recalage*, *calibration*, *estimation d'état*, *estimation de
-paramètres*, *ajustement de paramètres*, *problèmes inverses* ou *inversion*,
-*estimation bayésienne*, *interpolation optimale*, *régularisation
-mathématique*, *méta-heuristiques* d'optimisation, *réduction de modèles*,
-*lissage de données*, etc. De plus amples détails peuvent être trouvés dans la
-partie proposant :ref:`section_theory`. Le module ADAO offre actuellement plus
-d'une centaine de méthodes algorithmiques différentes et permet l'étude
-d'environ 350 problèmes appliqués distincts.
+paramètres*, *ajustement de paramètres*, *problèmes inverses*, *méthodes
+inverses*, *inversion*, *estimation bayésienne*, *interpolation optimale*,
+*régularisation mathématique*, *méta-heuristiques* d'optimisation, *réduction
+de modèles*, *lissage de données*, etc. De plus amples détails peuvent être
+trouvés dans la partie proposant :ref:`section_theory`. Le module ADAO offre
+actuellement plus d'une centaine de méthodes algorithmiques différentes et
+permet l'étude d'environ 350 problèmes appliqués distincts.
 
 La documentation de ce module est divisée en plusieurs grandes catégories,
 relatives à la **documentation théorique** (indiquée dans le titre de section
index 68fee18cafebfdaef850db25a8c4437c3b4e7bdc..c609c4de7efade725eefe06fd39666eb3c8c7fb2 100644 (file)
 .. index:: single: observation
 .. index:: single: a priori
 .. index:: single: EstimationOf
+.. index:: single: analyse
 
-**L'assimilation de données** est un cadre général bien établi pour le calcul de
-l'estimation optimale de l'état réel d'un système, au cours du temps si
-nécessaire. Il utilise les valeurs obtenues en combinant des observations et des
-modèles *a priori*, incluant de plus des informations sur leurs erreurs.
+**L'assimilation de données** est un cadre général bien établi pour le calcul
+de l'estimation optimale de l'état réel d'un système, au cours du temps si
+nécessaire. Il utilise les valeurs obtenues en combinant des observations et
+des modèles *a priori*, incluant de plus des informations sur leurs erreurs
+tout en respectant simultanément des contraintes. Cela tient donc compte des
+lois du comportement ou de la dynamique du système à travers les équations du
+modèle, et de la façon dont les mesures sont physiquement liées aux variables
+simulées.
 
 En d'autres termes, l'assimilation de données est un moyen de fusionner les
 données mesurées d'un système, qui sont les observations, avec des
 connaissances physique et mathématique *a priori* du système, intégrées dans
 les modèles numériques. L'objectif est d'obtenir la meilleure estimation
-possible de l'état réel du système et de ses propriétés stochastiques. On note
-que cet état réel (ou "*état vrai*") ne peut être habituellement atteint, mais
-peut seulement être estimé. De plus, malgré le fait que les informations
-utilisées sont stochastiques par nature, l'assimilation de données fournit des
-techniques déterministes afin de réaliser l'estimation de manière très
-efficace.
+possible, appelée "*analyse*", de l'état réel du système et de ses propriétés
+stochastiques. On note que cet état réel (ou "*état vrai*") ne peut être
+habituellement atteint, mais peut seulement être estimé. De plus, malgré le
+fait que les informations utilisées sont stochastiques par nature,
+l'assimilation de données fournit des techniques déterministes afin de réaliser
+l'estimation de manière très efficace.
 
 Comme l'assimilation de données cherche l'estimation la **meilleure possible**,
 la démarche technique sous-jacente intègre toujours de l'optimisation afin de