Salome HOME
merge from branch BR_V5_DEV
[modules/kernel.git] / src / MPIContainer / MPIObject_i.cxx
1 //  Copyright (C) 2007-2008  CEA/DEN, EDF R&D, OPEN CASCADE
2 //
3 //  Copyright (C) 2003-2007  OPEN CASCADE, EADS/CCR, LIP6, CEA/DEN,
4 //  CEDRAT, EDF R&D, LEG, PRINCIPIA R&D, BUREAU VERITAS
5 //
6 //  This library is free software; you can redistribute it and/or
7 //  modify it under the terms of the GNU Lesser General Public
8 //  License as published by the Free Software Foundation; either
9 //  version 2.1 of the License.
10 //
11 //  This library is distributed in the hope that it will be useful,
12 //  but WITHOUT ANY WARRANTY; without even the implied warranty of
13 //  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14 //  Lesser General Public License for more details.
15 //
16 //  You should have received a copy of the GNU Lesser General Public
17 //  License along with this library; if not, write to the Free Software
18 //  Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
19 //
20 //  See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
21 //
22 //  SALOME MPIContainer : implemenation of container based on MPI libraries
23 //  File   : MPIObject_i.cxx
24 //  Module : SALOME
25 //
26 #include <mpi.h>
27 #include "MPIObject_i.hxx"
28 #include "utilities.h"
29 using namespace std;
30
31 MPIObject_i::MPIObject_i()
32 {
33   MPI_Comm_size( MPI_COMM_WORLD, &_nbproc );
34   MPI_Comm_rank( MPI_COMM_WORLD, &_numproc );
35   _tior=NULL;
36 }
37
38 MPIObject_i::MPIObject_i(int nbproc, int numproc)
39 {
40   _nbproc = nbproc;
41   _numproc = numproc;
42   _tior=NULL;
43 }
44
45 MPIObject_i::~MPIObject_i()
46 {
47   if(_tior) delete _tior;
48 }
49
50 Engines::IORTab* MPIObject_i::tior()
51 {
52   Engines::IORTab_var tior = new Engines::IORTab;
53   tior->length(_tior->length());
54   for(unsigned int ip=0;ip<tior->length();ip++)
55     tior[ip] = (*_tior)[ip];
56   return tior._retn(); 
57 };
58
59 void MPIObject_i::tior(const Engines::IORTab& ior)
60 {
61   _tior = new Engines::IORTab;
62   _tior->length(ior.length());
63   for(unsigned int ip=0;ip<ior.length();ip++)
64     (*_tior)[ip] = ior[ip];
65 }
66
67 void MPIObject_i::BCastIOR(CORBA::ORB_ptr orb, Engines::MPIObject_ptr pobj, 
68                            bool amiCont)
69 {
70   int err, ip, n;
71   char *ior;
72   MPI_Status status; /* status de reception de message MPI */
73
74   if( _numproc == 0 ){
75
76     //Allocation du tableau des IOR
77     Engines::IORTab_var iort = new Engines::IORTab;
78     iort->length(_nbproc);
79
80     iort[0] = pobj;
81
82     // Process 0 recupere les ior de l'object sur les autres process
83     for(ip=1;ip<_nbproc;ip++){
84       err = MPI_Recv(&n,1,MPI_INT,ip,ip,MPI_COMM_WORLD,&status);
85       if(err){
86         MESSAGE("[" << _numproc << "] MPI_RECV error");
87         exit(1);
88       }
89       // Allocation de la chaine de longueur n
90       ior = new char[n];
91       err = MPI_Recv(ior,n,MPI_CHAR,ip,2*ip,MPI_COMM_WORLD,&status);
92       if(err){
93         MESSAGE("[" << _numproc << "] MPI_RECV error");
94         exit(1);
95       }
96       iort[ip] = orb->string_to_object(ior);
97       delete [] ior;
98     }
99     // On donne le tableau des ior a l'objet Corba du process 0
100     if( amiCont )
101       tior(*(iort._retn()));
102     else
103       pobj->tior(*(iort._retn()));
104
105   }
106   else{
107     // Conversion IOR vers string
108     ior = orb->object_to_string(pobj);
109     n = strlen(ior) + 1;
110     // On envoie l'IOR au process 0
111     err = MPI_Send(&n,1,MPI_INT,0,_numproc,MPI_COMM_WORLD);
112     if(err){
113       MESSAGE("[" << _numproc << "] MPI_SEND error");
114       exit(1);
115     }
116     err = MPI_Send(ior,n,MPI_CHAR,0,2*_numproc,MPI_COMM_WORLD);
117     if(err){
118       MESSAGE("[" << _numproc << "] MPI_SEND error");
119       exit(1);
120     }
121     CORBA::string_free(ior);
122   }
123
124 }
125