Salome HOME
Memory leak fix on MPI_Group and when throwing in MPIProcessorGroup.
[modules/med.git] / src / ParaMEDMEMTest / ParaMEDMEMTest_MPIProcessorGroup.cxx
1 // Copyright (C) 2007-2015  CEA/DEN, EDF R&D
2 //
3 // This library is free software; you can redistribute it and/or
4 // modify it under the terms of the GNU Lesser General Public
5 // License as published by the Free Software Foundation; either
6 // version 2.1 of the License, or (at your option) any later version.
7 //
8 // This library is distributed in the hope that it will be useful,
9 // but WITHOUT ANY WARRANTY; without even the implied warranty of
10 // MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
11 // Lesser General Public License for more details.
12 //
13 // You should have received a copy of the GNU Lesser General Public
14 // License along with this library; if not, write to the Free Software
15 // Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
16 //
17 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
18 //
19
20 #include "ParaMEDMEMTest.hxx"
21 #include <cppunit/TestAssert.h>
22 #include "CommInterface.hxx"
23 #include "ProcessorGroup.hxx"
24 #include "MPIProcessorGroup.hxx"
25 #include "InterpolationUtils.hxx"
26
27 #include <string>
28
29 // use this define to enable lines, execution of which leads to Segmentation Fault
30 #define ENABLE_FAULTS
31
32 // use this define to enable CPPUNIT asserts and fails, showing bugs
33 #define ENABLE_FORCED_FAILURES
34
35
36 using namespace std;
37 using namespace ParaMEDMEM;
38  
39 /*
40  * Check methods defined in MPPIProcessorGroup.hxx
41  *
42  (+) MPIProcessorGroup(const CommInterface& interface);
43  (+) MPIProcessorGroup(const CommInterface& interface, set<int> proc_ids);
44  (u) MPIProcessorGroup (const ProcessorGroup& proc_group, set<int> proc_ids);
45  (+) MPIProcessorGroup(const CommInterface& interface,int pstart, int pend);
46  (+) virtual ~MPIProcessorGroup();
47  (+) virtual ProcessorGroup* fuse (const ProcessorGroup&) const;
48  (u) void intersect (ProcessorGroup&){};
49  (+) int myRank() const {int rank; MPI_Comm_rank(_comm,&rank); return rank;}
50  (+) bool containsMyRank() const { int rank; MPI_Group_rank(_group, &rank); return (rank!=MPI_UNDEFINED);}
51  (+) int translateRank(const ProcessorGroup* group, int rank) const;
52  (+) const MPI_Comm* getComm() const {return &_comm;}
53  (+) ProcessorGroup* createComplementProcGroup() const;
54  (o) ProcessorGroup* createProcGroup() const;
55    
56 */
57  
58 void ParaMEDMEMTest::testMPIProcessorGroup_constructor()
59 {
60   CommInterface comm_interface;
61   MPIProcessorGroup* group;
62   int size;
63   MPI_Comm_size(MPI_COMM_WORLD, &size);
64
65   group= new MPIProcessorGroup(comm_interface);
66   CPPUNIT_ASSERT_EQUAL(size,group->size());
67   int size2;
68   const MPI_Comm* communicator=group->getComm();
69   MPI_Comm_size(*communicator, &size2);
70   CPPUNIT_ASSERT_EQUAL(size,size2);
71   delete group;
72
73   set <int> procs;
74
75   procs.insert(0);
76   procs.insert(1);
77   if (size==1)
78     CPPUNIT_ASSERT_THROW(group=new MPIProcessorGroup(comm_interface,procs),INTERP_KERNEL::Exception);
79   else
80     {
81       CPPUNIT_ASSERT_NO_THROW(  group=new MPIProcessorGroup(comm_interface,procs));
82       CPPUNIT_ASSERT_EQUAL (group->size(),2);
83       delete group;
84     }
85
86   //throws because plast<pfirst
87   CPPUNIT_ASSERT_THROW(group=new MPIProcessorGroup(comm_interface,1,0),INTERP_KERNEL::Exception);
88   //throws because plast is beyond size-1
89   CPPUNIT_ASSERT_THROW(group=new MPIProcessorGroup(comm_interface,0,size),INTERP_KERNEL::Exception);
90   if (size>1)
91     {
92       group=new MPIProcessorGroup(comm_interface,0,size-2);
93       CPPUNIT_ASSERT_EQUAL(group->size(),size-1);
94       delete group;
95     }
96
97 }
98  
99 void ParaMEDMEMTest::testMPIProcessorGroup_boolean()
100 {
101   int size;
102   MPI_Comm_size(MPI_COMM_WORLD, &size);
103   
104   CommInterface comm_interface;
105   MPIProcessorGroup group(comm_interface,0,0);
106   MPIProcessorGroup group2(comm_interface,size-1,size-1);
107   ProcessorGroup* group_fuse=group.fuse(group2);
108   int group_fuse_size=(size==1)?1:2;
109   CPPUNIT_ASSERT_EQUAL(group_fuse_size,group_fuse->size());
110  
111   ProcessorGroup* group_complement=((MPIProcessorGroup*)group_fuse)->createComplementProcGroup();
112   CPPUNIT_ASSERT_EQUAL(group_complement->size(),size-group_fuse_size);
113   
114   delete group_fuse;
115   delete group_complement;
116
117   //intersect not implemented yet
118   //   if (size>1)
119   //   {
120   //     MPIProcessorGroup group3(comm_interface,0,size-2);
121   //     MPIProcessorGroup group4(comm_interface,1,size-1);
122   //     group3.intersect(group4);
123   //     CPPUNIT_ASSERT_EQUAL(group3.size(),size-2);
124   //   }
125 }
126
127 void ParaMEDMEMTest::testMPIProcessorGroup_rank()
128 {
129   int size;
130   MPI_Comm_size(MPI_COMM_WORLD, &size);
131   int rank;
132   MPI_Comm_rank(MPI_COMM_WORLD, &rank);
133   
134   CommInterface comm_interface;
135   MPIProcessorGroup group(comm_interface,0,0);
136   MPIProcessorGroup group2(comm_interface,size-1,size-1);
137   ProcessorGroup* group_fuse=group2.fuse(group);
138   
139   if (group.containsMyRank())
140     CPPUNIT_ASSERT_EQUAL (group.myRank(), rank);
141
142   if (group2.containsMyRank())
143     {
144       int trank=group_fuse->translateRank(&group2,0);
145       if (size==1)
146         CPPUNIT_ASSERT_EQUAL(trank,0);
147       else  
148         CPPUNIT_ASSERT_EQUAL(trank,1);
149     }
150   delete group_fuse;
151 }