]> SALOME platform Git repositories - modules/adao.git/commitdiff
Salome HOME
Documentation improvements and review V9_9_0a2
authorJean-Philippe ARGAUD <jean-philippe.argaud@edf.fr>
Mon, 4 Apr 2022 11:14:18 +0000 (13:14 +0200)
committerJean-Philippe ARGAUD <jean-philippe.argaud@edf.fr>
Mon, 4 Apr 2022 11:14:18 +0000 (13:14 +0200)
doc/en/advanced.rst
doc/en/snippets/CostDecrementTolerance.rst
doc/en/snippets/CostDecrementTolerance_6.rst
doc/en/snippets/MaximumNumberOfIterations.rst
doc/fr/advanced.rst

index 2877cdd1a55d00d2bdb5a4851a8a2e7da78a3210..695c07dd80802c569cf88f5c5ea64f92105cfd80 100644 (file)
@@ -534,8 +534,8 @@ for other ones like the :ref:`section_ref_algorithm_DerivativeFreeOptimization`
 or :ref:`section_ref_algorithm_QuantileRegression`. In practice, a value
 between 10 and 30 is recommended to make this control parameter effective and
 still obtain an optimal search of good quality. For an optimal search of
-sufficient quality, this restriction should not be set too strictly, i.e. a
-limit of 30 should be better than 10.
+sufficient quality, this restriction should not be set too strictly, i.e. a 30
+iteration limit should be more favorable than a 10 iteration limit.
 
 **A second way to control convergence is to adapt the relative decrement
 tolerance in the minimization of the cost functional considered**. This
@@ -551,16 +551,17 @@ manifested by many successive iterations on almost identical states.
 finite difference approximation, primarily for the observation operator and a
 single-operator representation**. The control of this property is done with the
 keyword "*DifferentialIncrement*" which sets the definition using the
-:ref:`section_ref_operator_one`. Its default value is 1%, and it can usually be
-adjusted between :math:`10^{-5}` and :math:`10^{-3}` (although it is wise to
-check carefully the relevance of its value, it is easy in ADAO to change this
-parameter). The convergence criterion must then be adjusted so that it does not
-exceed the order of magnitude of this approximation. In practice, it is
-sufficient to set the "*CostDecrementTolerance*" criterion to approximately the
-same precision (i.e. with an order of magnitude more or less) as the
-"*DifferentialIncrement*" criterion. This way of improvement is also to be
-completed with analyses using the :ref:`section_ref_algorithm_LinearityTest`
-and :ref:`section_ref_algorithm_GradientTest`.
+:ref:`section_ref_operator_one`. Its default value is :math:`10^{-2}` (or 1%),
+and it can usually be adjusted between :math:`10^{-5}` and :math:`10^{-3}`
+(although it is wise to check carefully the relevance of its value, it is easy
+in ADAO to change this parameter). The convergence criterion must then be
+adjusted so that it does not exceed the order of magnitude of this
+approximation. In practice, it is sufficient to set the
+"*CostDecrementTolerance*" criterion to approximately the same precision (i.e.
+with an order of magnitude more or less) as the "*DifferentialIncrement*"
+criterion. This way of improvement is also to be completed with analyses using
+the :ref:`section_ref_algorithm_LinearityTest` and
+:ref:`section_ref_algorithm_GradientTest`.
 
 From experience, it is *a priori* not recommended to use other means to control
 convergence, even if they exist. These parameter adjustments are simple to
index 7b7b4a2faf7252189f9e41a6b7828b66c54e798c..7dbbc2f3d4f78614f54b7bb8eed2cb0f89db775b 100644 (file)
@@ -5,7 +5,7 @@ CostDecrementTolerance
   the iterative optimization process when the cost function decreases less than
   this tolerance at the last step. The default is 1.e-7, and it is recommended
   to adapt it to the needs on real problems. One can refer to the section
-  describing ways for ref:`subsection_iterative_convergence_control` for more
+  describing ways for :ref:`subsection_iterative_convergence_control` for more
   detailed recommendations.
 
   Example:
index fe4a2a7c7a2456b5b1cbd2f5ca59a7c7d09aefd4..1f58693a5ee6e073aacd877026922d5b3a258054 100644 (file)
@@ -5,7 +5,7 @@ CostDecrementTolerance
   the iterative optimization process when the cost function decreases less than
   this tolerance at the last step. The default is 1.e-6, and it is recommended
   to adapt it to the needs on real problems. One can refer to the section
-  describing ways for ref:`subsection_iterative_convergence_control` for more
+  describing ways for :ref:`subsection_iterative_convergence_control` for more
   detailed recommendations.
 
   Example:
index 5325099a4c9c8cdaf74876fa7261062704e38566..0aa003b7f5b9f4cd25e0b82ba827a4fe88295c97 100644 (file)
@@ -7,7 +7,7 @@ MaximumNumberOfIterations
   needs on real problems. For some optimizers, the effective stopping step can
   be slightly different of the limit due to algorithm internal control
   requirements. One can refer to the section describing ways for
-  ref:`subsection_iterative_convergence_control` for more detailed
+  :ref:`subsection_iterative_convergence_control` for more detailed
   recommendations.
 
   Example:
index 94b362bd2ba12f38ffc377a1d20af85ddd185308..896fc5d88a6d43000c7f362c88da99b9be4d47d0 100644 (file)
@@ -582,8 +582,8 @@ ou :ref:`section_ref_algorithm_QuantileRegression`. Dans la pratique, on
 recommande une valeur comprise entre 10 et 30 pour rendre ce paramètre de
 contrôle effectif et obtenir quand même une recherche optimale de bonne
 qualité. Pour une recherche optimale de qualité suffisante, il convient de ne
-pas fixer cette restriction trop strictement, c'est-à-dire qu'une limite de 30
-devrait être mieux que 10.
+pas fixer cette restriction trop strictement, c'est-à-dire qu'une limite à 30
+itérations devrait être plus favorable qu'une limite à 10 itérations.
 
 **Un second moyen de contrôle de la convergence est d'adapter la tolérance de
 décroissance relative dans la minimisation de la fonctionnelle de coût
@@ -602,14 +602,14 @@ défaut de l'approximation par différences finies, essentiellement pour
 l'opérateur d'observation et une représentation en mono-opérateur**. Le
 contrôle de cette propriété se fait à l'aide du mot-clé
 "*DifferentialIncrement*" qui paramètre la définition à l'aide de la
-:ref:`section_ref_operator_one`. Sa valeur par défaut est de 1%, et il peut
-généralement être ajusté entre :math:`10^{-5}` et :math:`10^{-3}` (même s'il
-est sage de vérifier soigneusement la pertinence de sa valeur, il est aisé dans
-ADAO de modifier ce paramètre). Le critère de convergence doit ensuite être
-ajusté de telle sorte qu'il ne surpasse pas l'ordre de grandeur de cette
-approximation. En pratique, on peut se contenter de fixer le critère
-"*CostDecrementTolerance*" à peu près à la même précision (c'est-à-dire avec un
-ordre de grandeur de plus ou de moins) que le critère
+:ref:`section_ref_operator_one`. Sa valeur par défaut est de :math:`10^{-2}`
+(ou 1%), et il peut généralement être ajusté entre :math:`10^{-5}` et
+:math:`10^{-3}` (même s'il est sage de vérifier soigneusement la pertinence de
+sa valeur, il est aisé dans ADAO de modifier ce paramètre). Le critère de
+convergence doit ensuite être ajusté de telle sorte qu'il ne surpasse pas
+l'ordre de grandeur de cette approximation. En pratique, on peut se contenter
+de fixer le critère "*CostDecrementTolerance*" à peu près à la même précision
+(c'est-à-dire avec un ordre de grandeur de plus ou de moins) que le critère
 "*DifferentialIncrement*". Ce moyen d'amélioration est aussi à compléter
 d'analyses à l'aide des :ref:`section_ref_algorithm_LinearityTest` et
 :ref:`section_ref_algorithm_GradientTest`.