Salome HOME
Adding KalmanFilter and treatment of evolution model
[modules/adao.git] / src / daComposant / daAlgorithms / EnsembleBlue.py
1 #-*-coding:iso-8859-1-*-
2 #
3 #  Copyright (C) 2008-2012 EDF R&D
4 #
5 #  This library is free software; you can redistribute it and/or
6 #  modify it under the terms of the GNU Lesser General Public
7 #  License as published by the Free Software Foundation; either
8 #  version 2.1 of the License.
9 #
10 #  This library is distributed in the hope that it will be useful,
11 #  but WITHOUT ANY WARRANTY; without even the implied warranty of
12 #  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13 #  Lesser General Public License for more details.
14 #
15 #  You should have received a copy of the GNU Lesser General Public
16 #  License along with this library; if not, write to the Free Software
17 #  Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
18 #
19 #  See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
20 #
21
22 import logging
23 from daCore import BasicObjects, PlatformInfo
24 m = PlatformInfo.SystemUsage()
25
26 import numpy
27
28 # ==============================================================================
29 class ElementaryAlgorithm(BasicObjects.Algorithm):
30     def __init__(self):
31         BasicObjects.Algorithm.__init__(self, "ENSEMBLEBLUE")
32         self.defineRequiredParameter(
33             name     = "SetSeed",
34             typecast = numpy.random.seed,
35             message  = "Graine fixée pour le générateur aléatoire",
36             )
37
38     def run(self, Xb=None, Y=None, H=None, M=None, R=None, B=None, Q=None, Parameters=None ):
39         """
40         Calcul d'une estimation BLUE d'ensemble :
41             - génération d'un ensemble d'observations, de même taille que le
42               nombre d'ébauches
43             - calcul de l'estimateur BLUE pour chaque membre de l'ensemble
44         """
45         logging.debug("%s Lancement"%self._name)
46         logging.debug("%s Taille mémoire utilisée de %.1f Mo"%(self._name, m.getUsedMemory("Mo")))
47         #
48         # Paramètres de pilotage
49         # ----------------------
50         self.setParameters(Parameters)
51         #
52         # Précalcul des inversions de B et R
53         # ----------------------------------
54         if B is not None:
55             BI = B.I
56         elif self._parameters["B_scalar"] is not None:
57             BI = 1.0 / self._parameters["B_scalar"]
58             B = self._parameters["B_scalar"]
59         else:
60             raise ValueError("Background error covariance matrix has to be properly defined!")
61         #
62         if R is not None:
63             RI = R.I
64         elif self._parameters["R_scalar"] is not None:
65             RI = 1.0 / self._parameters["R_scalar"]
66         else:
67             raise ValueError("Observation error covariance matrix has to be properly defined!")
68         #
69         # Nombre d'ensemble pour l'ébauche 
70         # --------------------------------
71         nb_ens = Xb.stepnumber()
72         #
73         # Construction de l'ensemble des observations, par génération a partir
74         # de la diagonale de R
75         # --------------------------------------------------------------------
76         DiagonaleR = numpy.diag(R)
77         EnsembleY = numpy.zeros([len(Y),nb_ens])
78         for npar in range(len(DiagonaleR)) : 
79             bruit = numpy.random.normal(0,DiagonaleR[npar],nb_ens)
80             EnsembleY[npar,:] = Y[npar] + bruit
81         EnsembleY = numpy.matrix(EnsembleY)
82         #
83         # Initialisation des opérateurs d'observation et de la matrice gain
84         # -----------------------------------------------------------------
85         Hm = H["Tangent"].asMatrix(None)
86         Ha = H["Adjoint"].asMatrix(None)
87         #
88         # Calcul de la matrice de gain dans l'espace le plus petit et de l'analyse
89         # ------------------------------------------------------------------------
90         if Y.size <= Xb.valueserie(0).size:
91             if self._parameters["R_scalar"] is not None:
92                 R = self._parameters["R_scalar"] * numpy.eye(len(Y), dtype=numpy.float)
93             logging.debug("%s Calcul de K dans l'espace des observations"%self._name)
94             K  = B * Ha * (Hm * B * Ha + R).I
95         else:
96             logging.debug("%s Calcul de K dans l'espace d'ébauche"%self._name)
97             K = (Ha * RI * Hm + BI).I * Ha * RI
98         #
99         # Calcul du BLUE pour chaque membre de l'ensemble
100         # -----------------------------------------------
101         for iens in range(nb_ens):
102             d  = EnsembleY[:,iens] - Hm * Xb.valueserie(iens)
103             Xa = Xb.valueserie(iens) + K*d
104             
105             self.StoredVariables["CurrentState"].store( Xa.A1 )
106             self.StoredVariables["Innovation"].store( d.A1 )
107         #
108         # Fabrication de l'analyse
109         # ------------------------
110         Members = self.StoredVariables["CurrentState"].valueserie()[-nb_ens:]
111         Xa = numpy.matrix( Members ).mean(axis=0)
112         self.StoredVariables["Analysis"].store( Xa.A1 )
113         #
114         logging.debug("%s Taille mémoire utilisée de %.1f Mo"%(self._name, m.getUsedMemory("Mo")))
115         logging.debug("%s Terminé"%self._name)
116         return 0
117
118 # ==============================================================================
119 if __name__ == "__main__":
120     print '\n AUTODIAGNOSTIC \n'