]> SALOME platform Git repositories - tools/medcoupling.git/commitdiff
Salome HOME
fix: restore ParaMEDMEMTest to master and fix ParaMEDMEM link
authorSONOLET Aymeric <aymeric.sonolet@cea.fr>
Mon, 15 Apr 2024 08:58:12 +0000 (10:58 +0200)
committerSONOLET Aymeric <aymeric.sonolet@cea.fr>
Mon, 15 Apr 2024 08:58:12 +0000 (10:58 +0200)
46 files changed:
src/ParaMEDMEM/ParaDataArray.cxx
src/ParaMEDMEMTest/MPI2Connector.cxx
src/ParaMEDMEMTest/MPI2Connector.hxx
src/ParaMEDMEMTest/MPIAccess/MPIAccessDECTest.cxx
src/ParaMEDMEMTest/MPIAccess/MPIAccessDECTest.hxx
src/ParaMEDMEMTest/MPIAccess/MPIAccessTest.cxx
src/ParaMEDMEMTest/MPIAccess/MPIAccessTest.hxx
src/ParaMEDMEMTest/MPIAccess/TestMPIAccess.cxx
src/ParaMEDMEMTest/MPIAccess/TestMPIAccessDEC.cxx
src/ParaMEDMEMTest/MPIAccess/test_AllToAllDEC.cxx
src/ParaMEDMEMTest/MPIAccess/test_AllToAllTimeDEC.cxx
src/ParaMEDMEMTest/MPIAccess/test_AllToAllvDEC.cxx
src/ParaMEDMEMTest/MPIAccess/test_AllToAllvTimeDEC.cxx
src/ParaMEDMEMTest/MPIAccess/test_AllToAllvTimeDoubleDEC.cxx
src/ParaMEDMEMTest/MPIAccess/test_MPI_Access_Cancel.cxx
src/ParaMEDMEMTest/MPIAccess/test_MPI_Access_Cyclic_ISend_IRecv.cxx
src/ParaMEDMEMTest/MPIAccess/test_MPI_Access_Cyclic_Send_Recv.cxx
src/ParaMEDMEMTest/MPIAccess/test_MPI_Access_IProbe.cxx
src/ParaMEDMEMTest/MPIAccess/test_MPI_Access_ISendRecv.cxx
src/ParaMEDMEMTest/MPIAccess/test_MPI_Access_ISend_IRecv.cxx
src/ParaMEDMEMTest/MPIAccess/test_MPI_Access_ISend_IRecv_BottleNeck.cxx
src/ParaMEDMEMTest/MPIAccess/test_MPI_Access_ISend_IRecv_Length.cxx
src/ParaMEDMEMTest/MPIAccess/test_MPI_Access_ISend_IRecv_Length_1.cxx
src/ParaMEDMEMTest/MPIAccess/test_MPI_Access_Probe.cxx
src/ParaMEDMEMTest/MPIAccess/test_MPI_Access_SendRecv.cxx
src/ParaMEDMEMTest/MPIAccess/test_MPI_Access_Send_Recv.cxx
src/ParaMEDMEMTest/MPIAccess/test_MPI_Access_Send_Recv_Length.cxx
src/ParaMEDMEMTest/MPIAccess/test_MPI_Access_Time.cxx
src/ParaMEDMEMTest/MPIAccess/test_MPI_Access_Time_0.cxx
src/ParaMEDMEMTest/MPIMainTest.hxx
src/ParaMEDMEMTest/ParaMEDMEMTest.cxx
src/ParaMEDMEMTest/ParaMEDMEMTest.hxx
src/ParaMEDMEMTest/ParaMEDMEMTestMPI2_1.cxx
src/ParaMEDMEMTest/ParaMEDMEMTestMPI2_2.cxx
src/ParaMEDMEMTest/ParaMEDMEMTest_BlockTopology.cxx
src/ParaMEDMEMTest/ParaMEDMEMTest_ByStringMPIProcessorGroup.cxx
src/ParaMEDMEMTest/ParaMEDMEMTest_FabienAPI.cxx
src/ParaMEDMEMTest/ParaMEDMEMTest_Gauthier1.cxx
src/ParaMEDMEMTest/ParaMEDMEMTest_ICoco.cxx
src/ParaMEDMEMTest/ParaMEDMEMTest_InterpKernelDEC.cxx
src/ParaMEDMEMTest/ParaMEDMEMTest_MEDLoader.cxx
src/ParaMEDMEMTest/ParaMEDMEMTest_MPIProcessorGroup.cxx
src/ParaMEDMEMTest/ParaMEDMEMTest_OverlapDEC.cxx
src/ParaMEDMEMTest/ParaMEDMEMTest_StructuredCoincidentDEC.cxx
src/ParaMEDMEMTest/TestParaMEDMEM.cxx
src/ParaMEDMEMTest/test_perf.cxx

index 9142a3bc36062811f6c6546fb0323e6708da32fe..7bd2249c0f079539ba5fb6cbb4197f12b51dcb97 100644 (file)
@@ -18,7 +18,7 @@
 //
 // Author : Anthony Geay (EDF R&D)
 
-#include "ParaDataArray.hxx"
+#include "ParaDataArray.txx"
 #include "MCType.hxx"
 #include "MEDCouplingMemArray.hxx"
 
index 3807e6615365a0b3994ad487daf81db017073df1..c36aa063ce71270feba8bc3a6b8f60b54fb04067 100644 (file)
@@ -21,8 +21,6 @@
 
 #include <iostream>
 #include <cstring>
-#include <string>
-#include <sstream>
 
 #ifndef WIN32
 #include <unistd.h>
@@ -46,7 +44,8 @@ MPI2Connector::MPI2Connector()
 }
 
 MPI2Connector::~MPI2Connector()
-= default;
+{
+}
 
 MPI_Comm MPI2Connector::remoteMPI2Connect(const std::string& service)
 {
@@ -119,7 +118,7 @@ MPI_Comm MPI2Connector::remoteMPI2Connect(const std::string& service)
   
   /* If rank 0 is server, all processes call MPI_Comm_accept */
   /* If rank 0 is not server, all processes call MPI_Comm_connect */
-  int const srv = (int)_srv;
+  int srv = (int)_srv;
   MPI_Bcast(&srv,1,MPI_INT,0,MPI_COMM_WORLD);
   _srv = (bool)srv;
   if ( _srv )
index 6f2e83597076f7d3d5812f4b4ab40cb63613f9f9..2d2dc6df7dd0bf3374e4dd7c5631522304fcbfc9 100644 (file)
@@ -22,6 +22,7 @@
 
 #include <mpi.h>
 #include <string>
+#include <sstream>
 
 class MPI2Connector
 {
index 28f51ab1d6df32b67f215f948cd26ceaa3d1114e..1330256659acefbcfc4eac5dffdcbcd2f84651f7 100644 (file)
 //
 
 #include "MPIAccessDECTest.hxx"
+#include <cppunit/TestAssert.h>
 
+#include <sstream>
 #include <cmath>
-#include <string>
 
 #ifndef WIN32
 #include <unistd.h>
index e8e0a20e45838cd640ebd0a5f2b5e9e09bb5b046..9be1c245380efb39413ec2969925c95e9a6dde01 100644 (file)
@@ -20,9 +20,9 @@
 #ifndef _MPIACCESSDECTEST_HXX_
 #define _MPIACCESSDECTEST_HXX_
 
-#include <cppunit/TestFixture.h>
 #include <cppunit/extensions/HelperMacros.h>
 
+#include <set>
 #include <string>
 #include <iostream>
 #include "mpi.h"
@@ -54,9 +54,9 @@ class MPIAccessDECTest : public CppUnit::TestFixture
 public:
  
   MPIAccessDECTest():CppUnit::TestFixture(){}
-  ~MPIAccessDECTest() override= default;  
-  void setUp() override{}
-  void tearDown() override{}
+  ~MPIAccessDECTest(){}  
+  void setUp(){}
+  void tearDown(){}
   void test_AllToAllDECSynchronousPointToPoint() ;
   void test_AllToAllDECAsynchronousPointToPoint() ;
   void test_AllToAllvDECSynchronousPointToPoint() ;
@@ -81,7 +81,7 @@ private:
 class MPIAccessDECTest_TmpFilesRemover
 {
 public:
-  MPIAccessDECTest_TmpFilesRemover() = default;
+  MPIAccessDECTest_TmpFilesRemover() {}
   ~MPIAccessDECTest_TmpFilesRemover();
   bool Register(const std::string theTmpFile);
 
index 22bfb4b3a5609b2f9a4b5a6e172293866b5b3901..7d09887625a0949f385804dc765cdd1116112250 100644 (file)
 //
 
 #include "MPIAccessTest.hxx"
+#include <cppunit/TestAssert.h>
 
+#include <sstream>
 #include <cmath>
-#include <string>
 
 #ifndef WIN32
 #include <unistd.h>
index bff9e951c59e75b3c705b440c850142cb13297d5..88136278b77506d14351280f6546d7ac9c07c784 100644 (file)
@@ -20,9 +20,9 @@
 #ifndef _MPIACCESSTEST_HXX_
 #define _MPIACCESSTEST_HXX_
 
-#include <cppunit/TestFixture.h>
 #include <cppunit/extensions/HelperMacros.h>
 
+#include <set>
 #include <string>
 #include <iostream>
 #include "mpi.h"
@@ -58,9 +58,9 @@ class MPIAccessTest : public CppUnit::TestFixture
 public:
  
   MPIAccessTest():CppUnit::TestFixture(){}
-  ~MPIAccessTest() override= default;  
-  void setUp() override{}
-  void tearDown() override{}
+  ~MPIAccessTest(){}  
+  void setUp(){}
+  void tearDown(){}
   void test_MPI_Access_Send_Recv() ;
   void test_MPI_Access_Cyclic_Send_Recv() ;
   void test_MPI_Access_SendRecv() ;
@@ -84,7 +84,7 @@ private:
 class MPIAccessTest_TmpFilesRemover
 {
 public:
-  MPIAccessTest_TmpFilesRemover() = default;
+  MPIAccessTest_TmpFilesRemover() {}
   ~MPIAccessTest_TmpFilesRemover();
   bool Register(const std::string theTmpFile);
 
index 5470cf5e9aad387103ab8d4aea276cfbaf5fc995..9a0941e19c1a24ab6d43eae42790acdab1366d08 100644 (file)
@@ -20,7 +20,6 @@
 // --- include all MPIAccess Test
 //
 #include "MPIAccessTest.hxx"
-#include <cppunit/extensions/HelperMacros.h>
 
 // --- Registers the fixture into the 'registry'
 
@@ -28,3 +27,4 @@ CPPUNIT_TEST_SUITE_REGISTRATION( MPIAccessTest );
 
 // --- generic Main program from KERNEL_SRC/src/Basics/Test
 
+#include "MPIMainTest.hxx"
index 6b3bcd5ca8bd460334e4a9a671cf4ea720019d91..5fa083af961d8c82c70356d291179ec0e6e298a3 100644 (file)
@@ -20,7 +20,6 @@
 // --- include all MPIAccessDEC Test
 //
 #include "MPIAccessDECTest.hxx"
-#include <cppunit/extensions/HelperMacros.h>
 
 // --- Registers the fixture into the 'registry'
 
@@ -28,3 +27,4 @@ CPPUNIT_TEST_SUITE_REGISTRATION( MPIAccessDECTest );
 
 // --- generic Main program from KERNEL_SRC/src/Basics/Test
 
+#include "MPIMainTest.hxx"
index 50344f2f602c9db5fc5d3a3e18ce9259b25daa9b..31254c265caa541f6fbeb9b4ab2a2c9d27f0ce8b 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include <sstream>
+#include <string>
+#include <vector>
+#include <map>
 #include <iostream>
 #include <mpi.h>
 
-#include "MPIAccess.hxx"
-#include "CommInterface.hxx"
 #include "MPIAccessDECTest.hxx"
 #include <cppunit/TestAssert.h>
 
 #include "../ParaMEDMEM/MPIAccess/MPIAccessDEC.hxx"
-#include "MPIProcessorGroup.hxx"
 
 // use this define to enable lines, execution of which leads to Segmentation Fault
 #define ENABLE_FAULTS
@@ -98,10 +97,10 @@ void MPIAccessDECTest::test_AllToAllDEC( bool Asynchronous ) {
     targetprocs.insert(i);
   }
 
-  auto* sourcegroup = new MEDCoupling::MPIProcessorGroup(interface,sourceprocs) ;
-  auto* targetgroup = new MEDCoupling::MPIProcessorGroup(interface,targetprocs) ;
+  MEDCoupling::MPIProcessorGroup* sourcegroup = new MEDCoupling::MPIProcessorGroup(interface,sourceprocs) ;
+  MEDCoupling::MPIProcessorGroup* targetgroup = new MEDCoupling::MPIProcessorGroup(interface,targetprocs) ;
 
-  auto * MyMPIAccessDEC = new MPIAccessDEC( *sourcegroup , *targetgroup ,
+  MPIAccessDEC * MyMPIAccessDEC = new MPIAccessDEC( *sourcegroup , *targetgroup ,
                                                     Asynchronous ) ;
   
   MPIAccess * mpi_access = MyMPIAccessDEC->getMPIAccess() ;
@@ -110,8 +109,8 @@ void MPIAccessDECTest::test_AllToAllDEC( bool Asynchronous ) {
 #define datamsglength 10
 
   //  int sts ;
-  int const sendcount = datamsglength ;
-  int const recvcount = datamsglength ;
+  int sendcount = datamsglength ;
+  int recvcount = datamsglength ;
   int * recvbuf = new int[datamsglength*size] ;
 
   int ireq ;
@@ -126,25 +125,25 @@ void MPIAccessDECTest::test_AllToAllDEC( bool Asynchronous ) {
     MyMPIAccessDEC->allToAll( sendbuf, sendcount , MPI_INT ,
                               recvbuf, recvcount , MPI_INT ) ;
 
-    int const nRecvReq = mpi_access->recvRequestIdsSize() ;
+    int nRecvReq = mpi_access->recvRequestIdsSize() ;
     int *ArrayOfRecvRequests = new int[nRecvReq] ;
-    int const nReq = mpi_access->recvRequestIds( nRecvReq, ArrayOfRecvRequests ) ;
+    int nReq = mpi_access->recvRequestIds( nRecvReq, ArrayOfRecvRequests ) ;
     mpi_access->waitAll( nReq , ArrayOfRecvRequests ) ;
     mpi_access->deleteRequests( nReq , ArrayOfRecvRequests ) ;
     delete [] ArrayOfRecvRequests ;
   }
 
-  int const nSendReq = mpi_access->sendRequestIdsSize() ;
+  int nSendReq = mpi_access->sendRequestIdsSize() ;
   debugStream << "test_AllToAllDEC" << myrank << " final SendRequestIds " << nSendReq << " SendRequests"
        << endl ;
   if ( nSendReq ) {
     int *ArrayOfSendRequests = new int[nSendReq] ;
-    int const nReq = mpi_access->sendRequestIds( nSendReq, ArrayOfSendRequests ) ;
+    int nReq = mpi_access->sendRequestIds( nSendReq, ArrayOfSendRequests ) ;
     mpi_access->waitAll( nReq , ArrayOfSendRequests ) ;
     delete [] ArrayOfSendRequests ;
   }
 
-  int const nRecvReq = mpi_access->recvRequestIdsSize() ;
+  int nRecvReq = mpi_access->recvRequestIdsSize() ;
   if ( nRecvReq ) {
     ostringstream strstream ;
     strstream << "test_AllToAllDEC" << myrank << " final RecvRequestIds " << nRecvReq
index 7638893352f64515c98068b628cceb596cbc5a99..25cb6e587006c9a7c24a20711eaabb40b70da8db 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include <sstream>
+#include <string>
+#include <vector>
+#include <map>
 #include <iostream>
 #include <mpi.h>
 
-#include "MPIAccess.hxx"
-#include "CommInterface.hxx"
-#include "DECOptions.hxx"
 #include "MPIAccessDECTest.hxx"
 #include <cppunit/TestAssert.h>
 
@@ -31,7 +30,7 @@
 //#include "CommInterface.hxx"
 //#include "ProcessorGroup.hxx"
 //#include "MPIProcessorGroup.hxx"
-#include "MPIProcessorGroup.hxx"
+#include "LinearTimeInterpolator.hxx"
 
 // use this define to enable lines, execution of which leads to Segmentation Fault
 #define ENABLE_FAULTS
@@ -104,11 +103,11 @@ void MPIAccessDECTest::test_AllToAllTimeDEC( bool Asynchronous ) {
     targetprocs.insert(i);
   }
 
-  auto* sourcegroup = new MEDCoupling::MPIProcessorGroup(interface,sourceprocs) ;
-  auto* targetgroup = new MEDCoupling::MPIProcessorGroup(interface,targetprocs) ;
+  MEDCoupling::MPIProcessorGroup* sourcegroup = new MEDCoupling::MPIProcessorGroup(interface,sourceprocs) ;
+  MEDCoupling::MPIProcessorGroup* targetgroup = new MEDCoupling::MPIProcessorGroup(interface,targetprocs) ;
 
   //  LinearTimeInterpolator * aLinearInterpDEC = new LinearTimeInterpolator( 0.5 ) ;
-  auto * MyMPIAccessDEC = new MPIAccessDEC( *sourcegroup , *targetgroup ,
+  MPIAccessDEC * MyMPIAccessDEC = new MPIAccessDEC( *sourcegroup , *targetgroup ,
                                                     Asynchronous ) ;
   //                                                    Asynchronous , LinearInterp , 0.5 ) ;
   MyMPIAccessDEC->setTimeInterpolator( LinearTimeInterp ) ;
@@ -123,13 +122,13 @@ void MPIAccessDECTest::test_AllToAllTimeDEC( bool Asynchronous ) {
 #define datamsglength 10
 
   int sts ;
-  int const sendcount = datamsglength ;
-  int const recvcount = datamsglength ;
+  int sendcount = datamsglength ;
+  int recvcount = datamsglength ;
 
   double time = 0 ;
   //  double deltatime[maxproc] = {1.,2.1,3.2,4.3,5.4,6.5,7.6,8.7,9.8,10.9,11.} ;
-  double const deltatime[maxproc] = {1.,2.,3.,4.,5.,6.,7.,8.,9.,10.,11.} ;
-  double const maxtime = maxreq ;
+  double deltatime[maxproc] = {1.,2.,3.,4.,5.,6.,7.,8.,9.,10.,11.} ;
+  double maxtime = maxreq ;
   double nextdeltatime = deltatime[myrank] ;
   //  MyMPIAccessDEC->InitTime( time , deltatime[myrank] , maxtime ) ;
   //  for ( time = 0 ; time <= maxtime ; time+=deltatime[myrank] ) {
@@ -174,7 +173,7 @@ void MPIAccessDECTest::test_AllToAllTimeDEC( bool Asynchronous ) {
                 << endl << "============================================================="
                 << endl ;
       int *ArrayOfRecvRequests = new int[nRecvReq] ;
-      int const nReq = mpi_access->recvRequestIds( nRecvReq, ArrayOfRecvRequests ) ;
+      int nReq = mpi_access->recvRequestIds( nRecvReq, ArrayOfRecvRequests ) ;
       mpi_access->waitAll( nReq , ArrayOfRecvRequests ) ;
       delete [] ArrayOfRecvRequests ;
       debugStream << strstream.str() << endl ;
@@ -221,12 +220,12 @@ void MPIAccessDECTest::test_AllToAllTimeDEC( bool Asynchronous ) {
     CPPUNIT_FAIL( strstream.str() ) ;
   }
 
-  int const nSendReq = mpi_access->sendRequestIdsSize() ;
+  int nSendReq = mpi_access->sendRequestIdsSize() ;
   debugStream << "test_AllToAllTimeDEC" << myrank << " final SendRequestIds " << nSendReq << " SendRequests"
        << endl ;
   if ( nSendReq ) {
     int *ArrayOfSendRequests = new int[nSendReq] ;
-    int const nReq = mpi_access->sendRequestIds( nSendReq, ArrayOfSendRequests ) ;
+    int nReq = mpi_access->sendRequestIds( nSendReq, ArrayOfSendRequests ) ;
     mpi_access->waitAll( nReq , ArrayOfSendRequests ) ;
     delete [] ArrayOfSendRequests ;
   }
index 04979b11785b2a440d4d8b642dda78076f71010f..713623df19ba8b42047a2ef423b611c630f85eeb 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include <sstream>
+#include <string>
+#include <vector>
+#include <map>
 #include <iostream>
 #include <mpi.h>
 
-#include "MPIAccess.hxx"
-#include "CommInterface.hxx"
 #include "MPIAccessDECTest.hxx"
 #include <cppunit/TestAssert.h>
 
@@ -30,7 +30,6 @@
 //#include "ProcessorGroup.hxx"
 //#include "MPIProcessorGroup.hxx"
 #include "../ParaMEDMEM/MPIAccess/MPIAccessDEC.hxx"
-#include "MPIProcessorGroup.hxx"
 
 // use this define to enable lines, execution of which leads to Segmentation Fault
 #define ENABLE_FAULTS
@@ -103,10 +102,10 @@ void MPIAccessDECTest::test_AllToAllvDEC( bool Asynchronous ) {
     targetprocs.insert(i);
   }
 
-  auto* sourcegroup = new MEDCoupling::MPIProcessorGroup(interface,sourceprocs) ;
-  auto* targetgroup = new MEDCoupling::MPIProcessorGroup(interface,targetprocs) ;
+  MEDCoupling::MPIProcessorGroup* sourcegroup = new MEDCoupling::MPIProcessorGroup(interface,sourceprocs) ;
+  MEDCoupling::MPIProcessorGroup* targetgroup = new MEDCoupling::MPIProcessorGroup(interface,targetprocs) ;
 
-  auto * MyMPIAccessDEC = new MPIAccessDEC( *sourcegroup , *targetgroup ,
+  MPIAccessDEC * MyMPIAccessDEC = new MPIAccessDEC( *sourcegroup , *targetgroup ,
                                                     Asynchronous ) ;
   
   MPIAccess * mpi_access = MyMPIAccessDEC->getMPIAccess() ;
@@ -149,10 +148,10 @@ void MPIAccessDECTest::test_AllToAllvDEC( bool Asynchronous ) {
     //    debugStream << "test_AllToAllvDEC" << myrank << " sendbuf " << sendbuf << endl ;
     //    MyMPIAccessDEC->CheckSent() ;
 
-    int const nRecvReq = mpi_access->recvRequestIdsSize() ;
+    int nRecvReq = mpi_access->recvRequestIdsSize() ;
     //    debugStream << "test_AllToAllvDEC" << myrank << " WaitAllRecv " << nRecvReq << " Requests" << endl ;
     int *ArrayOfRecvRequests = new int[nRecvReq] ;
-    int const nReq = mpi_access->recvRequestIds( nRecvReq, ArrayOfRecvRequests ) ;
+    int nReq = mpi_access->recvRequestIds( nRecvReq, ArrayOfRecvRequests ) ;
     mpi_access->waitAll( nReq , ArrayOfRecvRequests ) ;
     mpi_access->deleteRequests( nReq , ArrayOfRecvRequests ) ;
     delete [] ArrayOfRecvRequests ;
@@ -167,17 +166,17 @@ void MPIAccessDECTest::test_AllToAllvDEC( bool Asynchronous ) {
   //  debugStream << "test_AllToAllvDEC" << myrank << " final CheckSent" << endl ;
   //  MyMPIAccessDEC->CheckSent() ;
 
-  int const nSendReq = mpi_access->sendRequestIdsSize() ;
+  int nSendReq = mpi_access->sendRequestIdsSize() ;
   debugStream << "test_AllToAllvDEC" << myrank << " final SendRequestIds " << nSendReq << " SendRequests"
        << endl ;
   if ( nSendReq ) {
     int *ArrayOfSendRequests = new int[nSendReq] ;
-    int const nReq = mpi_access->sendRequestIds( nSendReq, ArrayOfSendRequests ) ;
+    int nReq = mpi_access->sendRequestIds( nSendReq, ArrayOfSendRequests ) ;
     mpi_access->waitAll( nReq , ArrayOfSendRequests ) ;
     delete [] ArrayOfSendRequests ;
   }
 
-  int const nRecvReq = mpi_access->recvRequestIdsSize() ;
+  int nRecvReq = mpi_access->recvRequestIdsSize() ;
   if ( nRecvReq ) {
     ostringstream strstream ;
     strstream << "test_AllToAllvDEC" << myrank << " final RecvRequestIds " << nRecvReq
index 69bbeee37d3767604db67b5ee56e48c3f9c882ac..3a94734208df9a2fa8f44049a3830b0213189a91 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include <sstream>
+#include <string>
+#include <vector>
+#include <map>
 #include <iostream>
 #include <mpi.h>
 #include <ctime>
 
-#include "MPIAccess.hxx"
-#include "CommInterface.hxx"
-#include "DECOptions.hxx"
 #include "MPIAccessDECTest.hxx"
 #include <cppunit/TestAssert.h>
 
@@ -32,7 +31,7 @@
 //#include "CommInterface.hxx"
 //#include "ProcessorGroup.hxx"
 //#include "MPIProcessorGroup.hxx"
-#include "MPIProcessorGroup.hxx"
+#include "LinearTimeInterpolator.hxx"
 
 // use this define to enable lines, execution of which leads to Segmentation Fault
 #define ENABLE_FAULTS
@@ -94,7 +93,7 @@ void MPIAccessDECTest::test_AllToAllvTimeDEC( bool Asynchronous , bool UseMPINat
   }
 
   //  int Asynchronous = atoi(argv[1]) ;
-  int const UseMPI_Alltoallv = UseMPINative ;
+  int UseMPI_Alltoallv = UseMPINative ;
   //  if ( argc == 3 ) {
   //    UseMPI_Alltoallv = atoi(argv[2]) ;
   //  }
@@ -113,11 +112,11 @@ void MPIAccessDECTest::test_AllToAllvTimeDEC( bool Asynchronous , bool UseMPINat
     targetprocs.insert(i);
   }
 
-  auto* sourcegroup = new MEDCoupling::MPIProcessorGroup(interface,sourceprocs) ;
-  auto* targetgroup = new MEDCoupling::MPIProcessorGroup(interface,targetprocs) ;
+  MEDCoupling::MPIProcessorGroup* sourcegroup = new MEDCoupling::MPIProcessorGroup(interface,sourceprocs) ;
+  MEDCoupling::MPIProcessorGroup* targetgroup = new MEDCoupling::MPIProcessorGroup(interface,targetprocs) ;
 
   //  TimeInterpolator * aLinearInterpDEC = new LinearTimeInterpolator( 0.5 ) ;
-  auto * MyMPIAccessDEC = new MPIAccessDEC( *sourcegroup , *targetgroup ,
+  MPIAccessDEC * MyMPIAccessDEC = new MPIAccessDEC( *sourcegroup , *targetgroup ,
                                                     Asynchronous ) ;
   //                                                    Asynchronous , LinearInterp , 0.5 ) ;
   MyMPIAccessDEC->setTimeInterpolator( LinearTimeInterp , 0.5 ) ;
@@ -153,7 +152,7 @@ void MPIAccessDECTest::test_AllToAllvTimeDEC( bool Asynchronous , bool UseMPINat
   }
 
   double timeLoc = 0 ;
-  double const deltatime[maxproc] = {1.,2.1,3.2,4.3,5.4,6.5,7.6,8.7,9.8,10.9,11.} ;
+  double deltatime[maxproc] = {1.,2.1,3.2,4.3,5.4,6.5,7.6,8.7,9.8,10.9,11.} ;
   double maxtime ;
   double nextdeltatime = deltatime[myrank] ;
   if ( UseMPI_Alltoallv ) {
@@ -163,7 +162,7 @@ void MPIAccessDECTest::test_AllToAllvTimeDEC( bool Asynchronous , bool UseMPINat
     maxtime = maxreq ;
     //    MyMPIAccessDEC->InitTime( time , nextdeltatime , maxtime ) ;
   }
-  time_t const begintime = time(nullptr) ;
+  time_t begintime = time(NULL) ;
   //  for ( time = 0 ; time <= maxtime ; time+=deltatime[myrank] ) {
   for ( timeLoc = 0 ; timeLoc <= maxtime && nextdeltatime != 0 ; timeLoc+=nextdeltatime ) {
     nextdeltatime = deltatime[myrank] ;
@@ -188,13 +187,13 @@ void MPIAccessDECTest::test_AllToAllvTimeDEC( bool Asynchronous , bool UseMPINat
 
     if ( UseMPI_Alltoallv ) {
       const MPI_Comm* comm = MyMPIAccessDEC->getComm();
-      auto * aSendTimeMessage = new TimeMessage ;
+      TimeMessage * aSendTimeMessage = new TimeMessage ;
       aSendTimeMessage->time = timeLoc ;
       //       aSendTimeMessage->deltatime = deltatime[myrank] ;
       aSendTimeMessage->deltatime = nextdeltatime ;
       //       aSendTimeMessage->maxtime = maxtime ;
       aSendTimeMessage->tag = (int ) (timeLoc/deltatime[myrank]) ;
-      auto * aRecvTimeMessage = new TimeMessage[size] ;
+      TimeMessage * aRecvTimeMessage = new TimeMessage[size] ;
       interface.allToAllV(aSendTimeMessage, sendtimecounts , stimedispls ,
                           mpi_access->timeType() ,
                           aRecvTimeMessage, recvtimecounts , rtimedispls ,
@@ -233,7 +232,7 @@ void MPIAccessDECTest::test_AllToAllvTimeDEC( bool Asynchronous , bool UseMPINat
                 << endl << "============================================================="
                 << endl ;
       int *ArrayOfRecvRequests = new int[nRecvReq] ;
-      int const nReq = mpi_access->recvRequestIds( nRecvReq, ArrayOfRecvRequests ) ;
+      int nReq = mpi_access->recvRequestIds( nRecvReq, ArrayOfRecvRequests ) ;
       mpi_access->waitAll( nReq , ArrayOfRecvRequests ) ;
       delete [] ArrayOfRecvRequests ;
       debugStream << strstream.str() << endl ;
@@ -244,7 +243,7 @@ void MPIAccessDECTest::test_AllToAllvTimeDEC( bool Asynchronous , bool UseMPINat
     bool badrecvbuf = false ;
     for ( i = 0 ; i < size ; i++ ) {
       for ( int jj = 0 ; jj < datamsglength ; jj++ ) {
-        int const index = i*datamsglength+jj ;
+        int index = i*datamsglength+jj ;
         if ( jj < recvcounts[i] ) {
           if ( recvbuf[index] != (index/datamsglength)*1000000 + myrank*1000 +
                myrank*datamsglength+(index%datamsglength) ) {
@@ -324,7 +323,7 @@ void MPIAccessDECTest::test_AllToAllvTimeDEC( bool Asynchronous , bool UseMPINat
          << " RecvRequests = 0 OK" << endl ;
   }
 
-  time_t endtime = time(nullptr) ;
+  time_t endtime = time(NULL) ;
   debugStream << "test_AllToAllvTimeDEC" << myrank << " begintime " << begintime << " endtime " << endtime
        << " elapse " << endtime-begintime << " " << maxtime/deltatime[myrank]
        << " calls to AllToAll" << endl ;
@@ -349,7 +348,7 @@ void MPIAccessDECTest::test_AllToAllvTimeDEC( bool Asynchronous , bool UseMPINat
 
   //  MPI_Finalize();
 
-  endtime = time(nullptr) ;
+  endtime = time(NULL) ;
 
   debugStream << "test_AllToAllvTimeDEC" << myrank << " OK begintime " << begintime << " endtime " << endtime
        << " elapse " << endtime-begintime << " " << maxtime/deltatime[myrank]
index 3b568a1cbf60dfb7bf4835645f1260f6d46245a4..e3ae828bc2cabdbe01a3b7ff7647dde984fae416 100644 (file)
 //
 
 #include <math.h>
-#include <sstream>
+#include <string>
+#include <vector>
+#include <map>
 #include <iostream>
 #include <mpi.h>
 #include <ctime>
 
-#include "MPIAccess.hxx"
-#include "CommInterface.hxx"
-#include "DECOptions.hxx"
 #include "MPIAccessDECTest.hxx"
 #include <cppunit/TestAssert.h>
 
@@ -33,7 +32,7 @@
 //#include "CommInterface.hxx"
 //#include "ProcessorGroup.hxx"
 //#include "MPIProcessorGroup.hxx"
-#include "MPIProcessorGroup.hxx"
+#include "LinearTimeInterpolator.hxx"
 
 // use this define to enable lines, execution of which leads to Segmentation Fault
 #define ENABLE_FAULTS
@@ -106,11 +105,11 @@ void MPIAccessDECTest::test_AllToAllvTimeDoubleDEC( bool Asynchronous ) {
      targetprocs.insert(i);
   }
 
-  auto* sourcegroup = new MEDCoupling::MPIProcessorGroup(interface,sourceprocs) ;
-  auto* targetgroup = new MEDCoupling::MPIProcessorGroup(interface,targetprocs) ;
+  MEDCoupling::MPIProcessorGroup* sourcegroup = new MEDCoupling::MPIProcessorGroup(interface,sourceprocs) ;
+  MEDCoupling::MPIProcessorGroup* targetgroup = new MEDCoupling::MPIProcessorGroup(interface,targetprocs) ;
 
 //  TimeInterpolator * aLinearInterpDEC = new LinearTimeInterpolator( 0 ) ;
-  auto * MyMPIAccessDEC = new MPIAccessDEC( *sourcegroup , *targetgroup ,
+  MPIAccessDEC * MyMPIAccessDEC = new MPIAccessDEC( *sourcegroup , *targetgroup ,
                                                     Asynchronous ) ;
 //                                                    Asynchronous , LinearInterp , 0.5 ) ;
   MyMPIAccessDEC->setTimeInterpolator( LinearTimeInterp ) ;
@@ -144,7 +143,7 @@ void MPIAccessDECTest::test_AllToAllvTimeDoubleDEC( bool Asynchronous ) {
   }
 
   double timeLoc[maxproc] ;
-  double const deltatime[maxproc] = {1.,2.1,3.2,4.3,5.4,6.5,7.6,8.7,9.8,10.9,11.} ;
+  double deltatime[maxproc] = {1.,2.1,3.2,4.3,5.4,6.5,7.6,8.7,9.8,10.9,11.} ;
   double maxtime[maxproc] ;
   double nextdeltatime[maxproc] ;
   for ( i = 0 ; i < size ; i++ ) {
@@ -152,7 +151,7 @@ void MPIAccessDECTest::test_AllToAllvTimeDoubleDEC( bool Asynchronous ) {
      maxtime[i] = maxreq ;
      nextdeltatime[i] = deltatime[i] ;
   }
-  time_t const begintime = time(nullptr) ;
+  time_t begintime = time(NULL) ;
   for ( timeLoc[myrank] = 0 ; timeLoc[myrank] <= maxtime[myrank] && nextdeltatime[myrank] != 0 ;
         timeLoc[myrank]+=nextdeltatime[myrank] ) {
 //local and target times
@@ -174,9 +173,9 @@ void MPIAccessDECTest::test_AllToAllvTimeDoubleDEC( bool Asynchronous ) {
      debugStream << "test" << myrank << "=====TIME " << timeLoc[myrank] << "=====DELTATIME "
           << nextdeltatime[myrank] << "=====MAXTIME " << maxtime[myrank] << " ======"
           << endl ; 
-     auto * sendbuf = new double[datamsglength*size] ;
+     double * sendbuf = new double[datamsglength*size] ;
 //     double * sendbuf = (double *) malloc(sizeof(double)*datamsglength*size) ;
-     auto * recvbuf = new double[datamsglength*size] ;
+     double * recvbuf = new double[datamsglength*size] ;
      int j ;
      //debugStream << "test_AllToAllvTimeDoubleDEC" << myrank << " sendbuf" ;
      for ( target = 0 ; target < size ; target++ ) {
@@ -209,7 +208,7 @@ void MPIAccessDECTest::test_AllToAllvTimeDoubleDEC( bool Asynchronous ) {
                  << endl << "============================================================"
                  << endl ;
        int *ArrayOfRecvRequests = new int[nRecvReq] ;
-       int const nReq = mpi_access->recvRequestIds( nRecvReq, ArrayOfRecvRequests ) ;
+       int nReq = mpi_access->recvRequestIds( nRecvReq, ArrayOfRecvRequests ) ;
        mpi_access->waitAll( nReq , ArrayOfRecvRequests ) ;
        delete [] ArrayOfRecvRequests ;
        debugStream << strstream.str() << endl ;
@@ -220,7 +219,7 @@ void MPIAccessDECTest::test_AllToAllvTimeDoubleDEC( bool Asynchronous ) {
      bool badrecvbuf = false ;
      for ( target = 0 ; target < size ; target++ ) {
         for ( int jj = 0 ; jj < datamsglength ; jj++ ) {
-           int const index = target*datamsglength+jj ;
+           int index = target*datamsglength+jj ;
            if ( jj < recvcounts[target] ) {
              if ( fabs(recvbuf[index] - (target*1000000 + myrank*10000 +
                   (timeLoc[target]/deltatime[target])*100 + jj)) > 101) {
@@ -299,7 +298,7 @@ void MPIAccessDECTest::test_AllToAllvTimeDoubleDEC( bool Asynchronous ) {
          << " RecvRequests = 0 OK" << endl ;
   }
 
-  time_t endtime = time(nullptr) ;
+  time_t endtime = time(NULL) ;
   debugStream << "test_AllToAllvTimeDoubleDEC" << myrank << " begintime " << begintime << " endtime " << endtime
        << " elapse " << endtime-begintime << " " << maxtime[myrank]/deltatime[myrank]
        << " calls to AllToAll" << endl ;
@@ -323,7 +322,7 @@ void MPIAccessDECTest::test_AllToAllvTimeDoubleDEC( bool Asynchronous ) {
 
 //  MPI_Finalize();
 
-  endtime = time(nullptr) ;
+  endtime = time(NULL) ;
 
   debugStream << "test_AllToAllvTimeDoubleDEC" << myrank << " OK begintime " << begintime << " endtime " << endtime
        << " elapse " << endtime-begintime << " " << maxtime[myrank]/deltatime[myrank]
index 4f7471f173fb7bd4d582af752837f25b02e556a5..54cff9995e50d3979d6560f95a052e558b140591 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include <sstream>
-#include "CommInterface.hxx"
-#include "MPIProcessorGroup.hxx"
+#include <time.h>
+#include <string>
+#include <vector>
+#include <map>
 #include <iostream>
 #include <mpi.h>
 
@@ -65,9 +66,9 @@ void MPIAccessTest::test_MPI_Access_Cancel() {
 
   debugStream << "test_MPI_Access_Cancel" << myrank << endl ;
 
-  MEDCoupling::CommInterface const interface ;
+  MEDCoupling::CommInterface interface ;
 
-  auto* group = new MEDCoupling::MPIProcessorGroup(interface) ;
+  MEDCoupling::MPIProcessorGroup* group = new MEDCoupling::MPIProcessorGroup(interface) ;
 
   MEDCoupling::MPIAccess mpi_access( group ) ;
 
index 1be07e3c9a0059c29a6f822c3d4bc01f0fd3c739..0d70afd7a9e066ea9cc27b4a5d7d6aade8fbce80 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include <sstream>
+#include <string>
+#include <vector>
+#include <map>
 #include <iostream>
 #include <mpi.h>
 
-#include "CommInterface.hxx"
 #include "MPIAccessTest.hxx"
 #include <cppunit/TestAssert.h>
 
@@ -29,7 +30,6 @@
 //#include "ProcessorGroup.hxx"
 //#include "MPIProcessorGroup.hxx"
 #include "MPIAccess.hxx"
-#include "MPIProcessorGroup.hxx"
 
 // use this define to enable lines, execution of which leads to Segmentation Fault
 #define ENABLE_FAULTS
@@ -59,9 +59,9 @@ void MPIAccessTest::test_MPI_Access_Cyclic_ISend_IRecv() {
 
   debugStream << "test_MPI_Access_Cyclic_ISend_IRecv" << myrank << endl ;
 
-  MEDCoupling::CommInterface const interface ;
+  MEDCoupling::CommInterface interface ;
 
-  auto* group = new MEDCoupling::MPIProcessorGroup(interface) ;
+  MEDCoupling::MPIProcessorGroup* group = new MEDCoupling::MPIProcessorGroup(interface) ;
 
   MEDCoupling::MPIAccess mpi_access( group ) ;
 
@@ -73,8 +73,8 @@ void MPIAccessTest::test_MPI_Access_Cyclic_ISend_IRecv() {
     return ;
   }
 
-  int const alltarget[3] = {1 , 2 , 0 } ;
-  int const allsource[3] = {2 , 0 , 1 } ;
+  int alltarget[3] = {1 , 2 , 0 } ;
+  int allsource[3] = {2 , 0 , 1 } ;
   int SendRequestId[maxsend] ;
   int RecvRequestId[maxsend] ;
   int sendbuf[maxsend] ;
index 0d02dd12bd685a3e419b1398ff840b9b4dc69ae6..d1e6922ccc77bed165889b2118246a832b3a67ce 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include <sstream>
+#include <string>
+#include <vector>
+#include <map>
 #include <iostream>
 #include <mpi.h>
-#include "CommInterface.hxx"
 #include "MPIAccessTest.hxx"
 #include <cppunit/TestAssert.h>
 
@@ -28,7 +29,6 @@
 //#include "ProcessorGroup.hxx"
 //#include "MPIProcessorGroup.hxx"
 #include "MPIAccess.hxx"
-#include "MPIProcessorGroup.hxx"
 
 // use this define to enable lines, execution of which leads to Segmentation Fault
 #define ENABLE_FAULTS
@@ -58,9 +58,9 @@ void MPIAccessTest::test_MPI_Access_Cyclic_Send_Recv() {
 
   debugStream << "test_MPI_Access_Cyclic_Send_Recv" << myrank << endl ;
 
-  MEDCoupling::CommInterface const interface ;
+  MEDCoupling::CommInterface interface ;
 
-  auto* group = new MEDCoupling::MPIProcessorGroup(interface) ;
+  MEDCoupling::MPIProcessorGroup* group = new MEDCoupling::MPIProcessorGroup(interface) ;
 
   MEDCoupling::MPIAccess mpi_access( group ) ;
 
@@ -70,8 +70,8 @@ void MPIAccessTest::test_MPI_Access_Cyclic_Send_Recv() {
     return ;
   }
 
-  int const alltarget[3] = {1 , 2 , 0 } ;
-  int const allsource[3] = {2 , 0 , 1 } ;
+  int alltarget[3] = {1 , 2 , 0 } ;
+  int allsource[3] = {2 , 0 , 1 } ;
   int RequestId[10] ;
   int sts ;
   int i = 0 ;
@@ -109,7 +109,7 @@ void MPIAccessTest::test_MPI_Access_Cyclic_Send_Recv() {
      }
      if ( myrank == 0 ) {
        if ( i != 9 ) {
-         int const ii = i + 1 ;
+         int ii = i + 1 ;
          sts = mpi_access.send(&ii,1,MPI_INT,alltarget[myrank], RequestId[i]) ;
          debugStream << "test" << myrank << " Send RequestId " << RequestId[i]
               << " tag " << mpi_access.sendMPITag(alltarget[myrank]) << endl ;
index 057c62c002e0fa7dfaf386074a816801e6d0918b..38dbdfc514f0cabf15897bbdc56c5f85ca9e14ce 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include <sstream>
-#include "CommInterface.hxx"
-#include "MPIProcessorGroup.hxx"
+#include <time.h>
+#include <string>
+#include <vector>
+#include <map>
 #include <iostream>
 #include <mpi.h>
 
@@ -65,9 +66,9 @@ void MPIAccessTest::test_MPI_Access_IProbe() {
 
   debugStream << "test_MPI_Access_IProbe" << myrank << endl ;
 
-  MEDCoupling::CommInterface const interface ;
+  MEDCoupling::CommInterface interface ;
 
-  auto* group = new MEDCoupling::MPIProcessorGroup(interface) ;
+  MEDCoupling::MPIProcessorGroup* group = new MEDCoupling::MPIProcessorGroup(interface) ;
 
   MEDCoupling::MPIAccess mpi_access( group ) ;
 
index 57c03bdffefd5fcd912b8519630af31c55367844..9c6f236a4e88431ac41898293229cfe826a08fc4 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include <sstream>
+#include <string>
+#include <vector>
+#include <map>
 #include <iostream>
 #include <mpi.h>
 
-#include "CommInterface.hxx"
 #include "MPIAccessTest.hxx"
 #include <cppunit/TestAssert.h>
 
@@ -29,7 +30,6 @@
 //#include "ProcessorGroup.hxx"
 //#include "MPIProcessorGroup.hxx"
 #include "MPIAccess.hxx"
-#include "MPIProcessorGroup.hxx"
 
 // use this define to enable lines, execution of which leads to Segmentation Fault
 #define ENABLE_FAULTS
@@ -59,9 +59,9 @@ void MPIAccessTest::test_MPI_Access_ISendRecv() {
 
   debugStream << "test_MPI_Access_ISendRecv" << myrank << endl ;
 
-  MEDCoupling::CommInterface const interface ;
+  MEDCoupling::CommInterface interface ;
 
-  auto* group = new MEDCoupling::MPIProcessorGroup(interface) ;
+  MEDCoupling::MPIProcessorGroup* group = new MEDCoupling::MPIProcessorGroup(interface) ;
 
   MEDCoupling::MPIAccess mpi_access( group ) ;
 
index 549c507b6c55f3159c0cdba0f102e43c6dd1d25e..f9a8abce67366ade95eb25622aac69563ac2d938 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include <sstream>
+#include <string>
+#include <vector>
+#include <map>
 #include <iostream>
 #include <mpi.h>
 
-#include "CommInterface.hxx"
 #include "MPIAccessTest.hxx"
 #include <cppunit/TestAssert.h>
 
@@ -29,7 +30,6 @@
 //#include "ProcessorGroup.hxx"
 //#include "MPIProcessorGroup.hxx"
 #include "MPIAccess.hxx"
-#include "MPIProcessorGroup.hxx"
 
 // use this define to enable lines, execution of which leads to Segmentation Fault
 #define ENABLE_FAULTS
@@ -59,9 +59,9 @@ void MPIAccessTest::test_MPI_Access_ISend_IRecv() {
 
   debugStream << "test_MPI_Access_ISend_IRecv" << myrank << endl ;
 
-  MEDCoupling::CommInterface const interface ;
+  MEDCoupling::CommInterface interface ;
 
-  auto* group = new MEDCoupling::MPIProcessorGroup(interface) ;
+  MEDCoupling::MPIProcessorGroup* group = new MEDCoupling::MPIProcessorGroup(interface) ;
 
   MEDCoupling::MPIAccess mpi_access( group ) ;
 
index 6aace35740ab9e46bdbe8df7e6b90c66a268413a..9db74c589c9f235ec52e03e0dfce2b17f48cf777 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include <sstream>
+#include <time.h>
+#include <string>
+#include <vector>
+#include <map>
 #include <iostream>
 #include <mpi.h>
 
-#include "CommInterface.hxx"
 #include "MPIAccessTest.hxx"
 #include <cppunit/TestAssert.h>
 
@@ -29,7 +31,6 @@
 //#include "ProcessorGroup.hxx"
 //#include "MPIProcessorGroup.hxx"
 #include "MPIAccess.hxx"
-#include "MPIProcessorGroup.hxx"
 
 // use this define to enable lines, execution of which leads to Segmentation Fault
 #define ENABLE_FAULTS
@@ -62,9 +63,9 @@ void MPIAccessTest::test_MPI_Access_ISend_IRecv_BottleNeck() {
 
   debugStream << "test_MPI_Access_ISend_IRecv_BottleNeck" << myrank << endl ;
 
-  MEDCoupling::CommInterface const interface ;
+  MEDCoupling::CommInterface interface ;
 
-  auto* group = new MEDCoupling::MPIProcessorGroup(interface) ;
+  MEDCoupling::MPIProcessorGroup* group = new MEDCoupling::MPIProcessorGroup(interface) ;
 
   MEDCoupling::MPIAccess mpi_access( group ) ;
 
@@ -76,7 +77,7 @@ void MPIAccessTest::test_MPI_Access_ISend_IRecv_BottleNeck() {
     return ;
   }
 
-  int const target = 1 - myrank ;
+  int target = 1 - myrank ;
   int SendRequestId[maxreq] ;
   int RecvRequestId[maxreq] ;
   int sts ;
@@ -146,7 +147,7 @@ void MPIAccessTest::test_MPI_Access_ISend_IRecv_BottleNeck() {
     size2 = mpi_access.sendRequestIdsSize() ;
     debugStream << "test" << myrank << " after WaitAll sendreqsize " << size2 << endl ;
     int * ArrayOfSendRequests = new int[ size2 ] ;
-    int const nSendRequest = mpi_access.sendRequestIds( size2 , ArrayOfSendRequests ) ;
+    int nSendRequest = mpi_access.sendRequestIds( size2 , ArrayOfSendRequests ) ;
     for ( i = 0 ; i < nSendRequest ; i++ ) {
        mpi_access.deleteRequest( ArrayOfSendRequests[i] ) ;
     }
@@ -159,7 +160,7 @@ void MPIAccessTest::test_MPI_Access_ISend_IRecv_BottleNeck() {
     size2 = mpi_access.recvRequestIdsSize() ;
     debugStream << "test" << myrank << " after WaitAll recvreqsize " << size2 << endl ;
     int * ArrayOfRecvRequests = new int[ size2 ] ;
-    int const nRecvRequest = mpi_access.recvRequestIds( size2 , ArrayOfRecvRequests ) ;
+    int nRecvRequest = mpi_access.recvRequestIds( size2 , ArrayOfRecvRequests ) ;
     for ( i = 0 ; i < nRecvRequest ; i++ ) {
        mpi_access.deleteRequest( ArrayOfRecvRequests[i] ) ;
     }
index 0a6a1c38cf80d2bb5ed538743d19f9c60b54ac4b..0e02ef9794779254c34133a78edf1e8aea89e3b1 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include <sstream>
+#include <string>
+#include <vector>
+#include <map>
 #include <iostream>
 #include <mpi.h>
 
-#include "CommInterface.hxx"
 #include "MPIAccessTest.hxx"
 #include <cppunit/TestAssert.h>
 
@@ -29,7 +30,6 @@
 //#include "ProcessorGroup.hxx"
 //#include "MPIProcessorGroup.hxx"
 #include "MPIAccess.hxx"
-#include "MPIProcessorGroup.hxx"
 
 // use this define to enable lines, execution of which leads to Segmentation Fault
 #define ENABLE_FAULTS
@@ -61,9 +61,9 @@ void MPIAccessTest::test_MPI_Access_ISend_IRecv_Length() {
 
   debugStream << "test_MPI_Access_ISend_IRecv_Length" << myrank << endl ;
 
-  MEDCoupling::CommInterface const interface ;
+  MEDCoupling::CommInterface interface ;
 
-  auto* group = new MEDCoupling::MPIProcessorGroup(interface) ;
+  MEDCoupling::MPIProcessorGroup* group = new MEDCoupling::MPIProcessorGroup(interface) ;
 
   MEDCoupling::MPIAccess mpi_access( group ) ;
 
@@ -75,7 +75,7 @@ void MPIAccessTest::test_MPI_Access_ISend_IRecv_Length() {
     return ;
   }
 
-  int const target = 1 - myrank ;
+  int target = 1 - myrank ;
   int SendRequestId[maxreq] ;
   int RecvRequestId[maxreq] ;
   int sts ;
index d7155f82be571fc7f892279c3a7ddda27c8af976..38815c30d2e11d57a18bdc045ecce56f0c26540b 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include <sstream>
+#include <string>
+#include <vector>
+#include <map>
 #include <iostream>
 #include <mpi.h>
 
-#include "CommInterface.hxx"
 #include "MPIAccessTest.hxx"
 #include <cppunit/TestAssert.h>
 
@@ -29,7 +30,6 @@
 //#include "ProcessorGroup.hxx"
 //#include "MPIProcessorGroup.hxx"
 #include "MPIAccess.hxx"
-#include "MPIProcessorGroup.hxx"
 
 // use this define to enable lines, execution of which leads to Segmentation Fault
 #define ENABLE_FAULTS
@@ -59,9 +59,9 @@ void MPIAccessTest::test_MPI_Access_ISend_IRecv_Length_1() {
 
   debugStream << "test_MPI_Access_ISend_IRecv_Length_1" << myrank << endl ;
 
-  MEDCoupling::CommInterface const interface ;
+  MEDCoupling::CommInterface interface ;
 
-  auto* group = new MEDCoupling::MPIProcessorGroup(interface) ;
+  MEDCoupling::MPIProcessorGroup* group = new MEDCoupling::MPIProcessorGroup(interface) ;
 
   MEDCoupling::MPIAccess mpi_access( group ) ;
 
index c41e730d9d47bdce3022c1f5ca8e0a973d9433ac..ba027e24e65295dfdfc4e8d388f1f21e4715fd0d 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include <sstream>
+#include <string>
+#include <vector>
+#include <map>
 #include <iostream>
 #include <mpi.h>
 
-#include "CommInterface.hxx"
 #include "MPIAccessTest.hxx"
 #include <cppunit/TestAssert.h>
 
@@ -29,7 +30,6 @@
 //#include "ProcessorGroup.hxx"
 //#include "MPIProcessorGroup.hxx"
 #include "MPIAccess.hxx"
-#include "MPIProcessorGroup.hxx"
 
 // use this define to enable lines, execution of which leads to Segmentation Fault
 #define ENABLE_FAULTS
@@ -59,9 +59,9 @@ void MPIAccessTest::test_MPI_Access_Probe() {
 
   debugStream << "test_MPI_Access_Probe" << myrank << endl ;
 
-  MEDCoupling::CommInterface const interface ;
+  MEDCoupling::CommInterface interface ;
 
-  auto* group = new MEDCoupling::MPIProcessorGroup(interface) ;
+  MEDCoupling::MPIProcessorGroup* group = new MEDCoupling::MPIProcessorGroup(interface) ;
 
   MEDCoupling::MPIAccess mpi_access( group ) ;
 
index 01655f99d956d8c3fe52f2036c089c3a95c514a7..3842d3650b440b475bd5f2cdd7ee1fff06282a40 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include <sstream>
+#include <string>
+#include <vector>
+#include <map>
 #include <iostream>
 #include <mpi.h>
 
-#include "CommInterface.hxx"
 #include "MPIAccessTest.hxx"
 #include <cppunit/TestAssert.h>
 
@@ -29,7 +30,6 @@
 //#include "ProcessorGroup.hxx"
 //#include "MPIProcessorGroup.hxx"
 #include "MPIAccess.hxx"
-#include "MPIProcessorGroup.hxx"
 
 // use this define to enable lines, execution of which leads to Segmentation Fault
 #define ENABLE_FAULTS
@@ -59,9 +59,9 @@ void MPIAccessTest::test_MPI_Access_SendRecv() {
 
   debugStream << "MPIAccessTest::test_MPI_Access_SendRecv" << myrank << endl ;
 
-  MEDCoupling::CommInterface const interface ;
+  MEDCoupling::CommInterface interface ;
 
-  auto* group = new MEDCoupling::MPIProcessorGroup(interface) ;
+  MEDCoupling::MPIProcessorGroup* group = new MEDCoupling::MPIProcessorGroup(interface) ;
 
   MEDCoupling::MPIAccess mpi_access( group ) ;
 
@@ -71,7 +71,7 @@ void MPIAccessTest::test_MPI_Access_SendRecv() {
     return ;
   }
 
-  int const target = 1 - myrank ;
+  int target = 1 - myrank ;
   int sendRequestId[10] ;
   int recvRequestId[10] ;
   int sts ;
index aac016f0d8c83409ffd37d20d2acc7e9ecb06db7..6fcf6947339ed8ec9685ff91e84bf9f2eb68ced6 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include <sstream>
+#include <string>
+#include <vector>
+#include <map>
 #include <iostream>
 #include <mpi.h>
 
-#include "CommInterface.hxx"
 #include "MPIAccessTest.hxx"
 #include <cppunit/TestAssert.h>
 
@@ -29,7 +30,6 @@
 //#include "ProcessorGroup.hxx"
 //#include "MPIProcessorGroup.hxx"
 #include "MPIAccess.hxx"
-#include "MPIProcessorGroup.hxx"
 
 // use this define to enable lines, execution of which leads to Segmentation Fault
 #define ENABLE_FAULTS
@@ -57,9 +57,9 @@ void MPIAccessTest::test_MPI_Access_Send_Recv() {
 
   debugStream << "test_MPI_Access_Send_Recv" << myrank << endl ;
 
-  MEDCoupling::CommInterface const interface ;
+  MEDCoupling::CommInterface interface ;
 
-  auto* group = new MEDCoupling::MPIProcessorGroup(interface) ;
+  MEDCoupling::MPIProcessorGroup* group = new MEDCoupling::MPIProcessorGroup(interface) ;
 
   MEDCoupling::MPIAccess mpi_access( group ) ;
 
@@ -69,7 +69,7 @@ void MPIAccessTest::test_MPI_Access_Send_Recv() {
     return ;
   }
 
-  int const target = 1 - myrank ;
+  int target = 1 - myrank ;
   int RequestId[10] ;
   int sts ;
   int i ;
index beba51d59c77b79ca74d3795283969779a4a98bd..9d4d3c9139f529a2a53d826fe828546755f1c045 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include <sstream>
+#include <string>
+#include <vector>
+#include <map>
 #include <iostream>
 #include <mpi.h>
 
-#include "CommInterface.hxx"
 #include "MPIAccessTest.hxx"
 #include <cppunit/TestAssert.h>
 
@@ -29,7 +30,6 @@
 //#include "ProcessorGroup.hxx"
 //#include "MPIProcessorGroup.hxx"
 #include "MPIAccess.hxx"
-#include "MPIProcessorGroup.hxx"
 
 // use this define to enable lines, execution of which leads to Segmentation Fault
 #define ENABLE_FAULTS
@@ -61,9 +61,9 @@ void MPIAccessTest::test_MPI_Access_Send_Recv_Length() {
 
   debugStream << "test_MPI_Access_Send_Recv_Length" << myrank << endl ;
 
-  MEDCoupling::CommInterface const interface ;
+  MEDCoupling::CommInterface interface ;
 
-  auto* group = new MEDCoupling::MPIProcessorGroup(interface) ;
+  MEDCoupling::MPIProcessorGroup* group = new MEDCoupling::MPIProcessorGroup(interface) ;
 
   MEDCoupling::MPIAccess mpi_access( group ) ;
 
@@ -73,7 +73,7 @@ void MPIAccessTest::test_MPI_Access_Send_Recv_Length() {
     return ;
   }
 
-  int const target = 1 - myrank ;
+  int target = 1 - myrank ;
   int RequestId[10] ;
   int sendbuf[9000] ;
   int recvbuf[9000] ;
index 3d3bad0cd0ce73ae84fb8422c16f0f7b88c8498e..912bce91d928cd4e8ed1c1cd6520b1914644507c 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include <sstream>
+#include <string>
+#include <vector>
+#include <map>
 #include <iostream>
 #include <mpi.h>
 
-#include "CommInterface.hxx"
 #include "MPIAccessTest.hxx"
 #include <cppunit/TestAssert.h>
 
@@ -29,7 +30,6 @@
 //#include "ProcessorGroup.hxx"
 //#include "MPIProcessorGroup.hxx"
 #include "MPIAccess.hxx"
-#include "MPIProcessorGroup.hxx"
 
 // use this define to enable lines, execution of which leads to Segmentation Fault
 #define ENABLE_FAULTS
@@ -61,9 +61,9 @@ void MPIAccessTest::test_MPI_Access_Time() {
 
   debugStream << "test_MPI_Access_Time" << myrank << endl ;
 
-  MEDCoupling::CommInterface const interface ;
+  MEDCoupling::CommInterface interface ;
 
-  auto* group = new MEDCoupling::MPIProcessorGroup(interface) ;
+  MEDCoupling::MPIProcessorGroup* group = new MEDCoupling::MPIProcessorGroup(interface) ;
 
   MEDCoupling::MPIAccess mpi_access( group ) ;
 
@@ -90,8 +90,8 @@ void MPIAccessTest::test_MPI_Access_Time() {
   MEDCoupling::TimeMessage aSendTimeMsg[maxreq] ;
   MEDCoupling::TimeMessage aRecvTimeMsg[maxreq] ;
   double t ;
-  double const dt = 1. ;
-  double const maxt = 10. ;
+  double dt = 1. ;
+  double maxt = 10. ;
   for ( t = 0 ; t < maxt ; t = t+dt ) {
     if ( myrank == 0 ) {
       aSendTimeMsg[i].time = t ;
index 0a3aae2d0459a9915f2c69548c3461d82e052e11..9eb214d4ba12f4bd685b7be5205d63874b62dc43 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include <sstream>
+#include <string>
+#include <vector>
+#include <map>
 #include <iostream>
 #include <mpi.h>
 
-#include "CommInterface.hxx"
 #include "MPIAccessTest.hxx"
 #include <cppunit/TestAssert.h>
 
@@ -29,7 +30,6 @@
 //#include "ProcessorGroup.hxx"
 //#include "MPIProcessorGroup.hxx"
 #include "MPIAccess.hxx"
-#include "MPIProcessorGroup.hxx"
 
 // use this define to enable lines, execution of which leads to Segmentation Fault
 #define ENABLE_FAULTS
@@ -83,16 +83,16 @@ void MPIAccessTest::test_MPI_Access_Time_0() {
 #define maxreq 100
 
   double t ;
-  double const dt[2] = {2., 1.} ;
-  double const maxt = maxreq/dt[myrank] ;
+  double dt[2] = {2., 1.} ;
+  double maxt = maxreq/dt[myrank] ;
 
   debugStream << "test_MPI_Access_Time_0 rank" << myrank << endl ;
 
-  MEDCoupling::CommInterface const interface ;
+  MEDCoupling::CommInterface interface ;
 
-  auto* group = new MEDCoupling::MPIProcessorGroup(interface) ;
+  MEDCoupling::MPIProcessorGroup* group = new MEDCoupling::MPIProcessorGroup(interface) ;
 
-  auto * mpi_access = new MEDCoupling::MPIAccess( group ) ;
+  MEDCoupling::MPIAccess * mpi_access = new MEDCoupling::MPIAccess( group ) ;
 
   if ( myrank >= 2 ) {
     debugStream << "test_MPI_Access_Time_0 rank" << myrank << " --> mpi_access->barrier" << endl ;
@@ -145,7 +145,7 @@ void MPIAccessTest::test_MPI_Access_Time_0() {
 //CheckSent
 //=========
        int sendrequests[2*maxreq] ;
-       int const sendreqsize = mpi_access->sendRequestIds( target , 2*maxreq ,
+       int sendreqsize = mpi_access->sendRequestIds( target , 2*maxreq ,
                                                     sendrequests ) ;
        int j , flag ;
        for ( j = 0 ; j < sendreqsize ; j++ ) {
@@ -229,7 +229,7 @@ void MPIAccessTest::test_MPI_Access_Time_0() {
               }
               mpi_access->deleteRequest( RecvTimeRequestId[lasttime] ) ;
 
-              double const deltatime = aRecvTimeMsg[lasttime].deltatime ;
+              double deltatime = aRecvTimeMsg[lasttime].deltatime ;
               //double maxtime = aRecvTimeMsg[lasttime].maxtime ;
               double nexttime = aRecvTimeMsg[lasttime].time + deltatime ;
               debugStream << "test" << myrank << " t " << t << " lasttime " << lasttime
@@ -367,7 +367,7 @@ void MPIAccessTest::test_MPI_Access_Time_0() {
 //==============
     debugStream << "test" << myrank << " CheckFinalSent :" << endl ;
     int sendrequests[2*maxreq] ;
-    int const sendreqsize = mpi_access->sendRequestIds( target , 2*maxreq , sendrequests ) ;
+    int sendreqsize = mpi_access->sendRequestIds( target , 2*maxreq , sendrequests ) ;
     int j ;
     for ( j = 0 ; j < sendreqsize ; j++ ) {
        sts = mpi_access->wait( sendrequests[j] ) ;
@@ -380,7 +380,7 @@ void MPIAccessTest::test_MPI_Access_Time_0() {
   else {
     debugStream << "test" << myrank << " CheckFinalRecv :" << endl ;
     int recvrequests[2*maxreq] ;
-    int const recvreqsize = mpi_access->recvRequestIds( target , 2*maxreq , recvrequests ) ;
+    int recvreqsize = mpi_access->recvRequestIds( target , 2*maxreq , recvrequests ) ;
     int cancelflag ;
     int j ;
     for ( j = 0 ; j < recvreqsize ; j++ ) {
index 4a78c0f7d0692eb926166969d0cb2225c2557df1..a75cf72c992cdc3f47f8a3035d504ad50d2a638e 100644 (file)
 #define _MPIMAINTEST_HXX_
 
 #include <cppunit/CompilerOutputter.h>
-#include <cppunit/Portability.h>
 #include <cppunit/TestResult.h>
 #include <cppunit/TestResultCollector.h>
+#include <cppunit/TextTestProgressListener.h>
 #include <cppunit/BriefTestProgressListener.h>
 #include <cppunit/extensions/TestFactoryRegistry.h>
 #include <cppunit/TestRunner.h>
-#include <sstream>
+#include <stdexcept>
 
 #include <mpi.h>
 
@@ -92,7 +92,7 @@ int main(int argc, char* argv[])
 
   // ---  Run the tests.
 
-  bool const wasSucessful = result.wasSuccessful();
+  bool wasSucessful = result.wasSuccessful();
   testFile.close();
 
   // ---  Return error code 1 if the one of test failed.
index 19d149ad20bca00ff6f35fd61808e5029967abff..10286c332f72c5f6b457879bb9d8a1ae94db2216 100644 (file)
 //
 
 #include "ParaMEDMEMTest.hxx"
+#include "TestInterpKernelUtils.hxx"
+#include <cppunit/TestAssert.h>
 
+#include <sstream>
 #include <cmath>
+#include <list>
 #include <stdexcept>
 #include <stdlib.h>
-#include <string>
-#include <list>
 
 #ifndef WIN32
 #include <unistd.h>
@@ -40,7 +42,7 @@
 
 std::string ParaMEDMEMTest::getTmpDirectory()
 {
-  std::string const path;
+  std::string path;
 
   std::list<std::string> dirs;
   if ( getenv("TMP") )    dirs.push_back( getenv("TMP" ));
index 8d44f185b274c87de5e69bef7b750c8d1aba0563..fb2b339ec7f2df06aa7a1920fef042178547027a 100644 (file)
@@ -20,9 +20,9 @@
 #ifndef _ParaMEDMEMTEST_HXX_
 #define _ParaMEDMEMTEST_HXX_
 
-#include <cppunit/TestFixture.h>
 #include <cppunit/extensions/HelperMacros.h>
 
+#include <set>
 #include <string>
 #include <iostream>
 #include "mpi.h"
@@ -96,9 +96,9 @@ class ParaMEDMEMTest : public CppUnit::TestFixture
 public:
  
   ParaMEDMEMTest():CppUnit::TestFixture(){}
-  ~ParaMEDMEMTest() override= default;  
-  void setUp() override{}
-  void tearDown() override{}
+  ~ParaMEDMEMTest(){}  
+  void setUp(){}
+  void tearDown(){}
   void testMPIProcessorGroup_constructor();
   void testMPIProcessorGroup_boolean();
   void testMPIProcessorGroup_rank();
@@ -188,7 +188,7 @@ private:
 class ParaMEDMEMTest_TmpFilesRemover
 {
 public:
-  ParaMEDMEMTest_TmpFilesRemover() = default;
+  ParaMEDMEMTest_TmpFilesRemover() {}
   ~ParaMEDMEMTest_TmpFilesRemover();
   bool Register(const std::string theTmpFile);
 
index 4811eccb51780ec5b4a87293679e04b62704ac85..a9ea763783b95dc24ad3d40bde4166736a1f3554 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include <cppunit/TestFixture.h>
-#include <cppunit/TestAssert.h>
 #include <cppunit/extensions/HelperMacros.h>
 
-#include "MCIdType.hxx"
-#include "MEDCouplingMemArray.hxx"
-#include "MEDCouplingRefCountObject.hxx"
-#include "MEDCouplingNatureOfFieldEnum"
 #include "MPI2Connector.hxx"
-#include "NormalizedGeometricTypes"
 #include "ParaMESH.hxx"
 #include "ParaFIELD.hxx"
 #include "MEDCouplingUMesh.hxx"
+#include "MEDCouplingFieldDouble.hxx"
 #include "InterpKernelDEC.hxx"
 #include "MPIProcessorGroup.hxx"
 #include "CommInterface.hxx"
 
 #include <mpi.h>
 #include <iostream>
-#include <sstream>
 #include <stdlib.h>
-#include <string>
 
 class MPI2ParaMEDMEMTest : public CppUnit::TestFixture
 {
@@ -57,9 +49,9 @@ void MPI2ParaMEDMEMTest::testBasicMPI2_1()
   MPI_Comm gcom;
   std::string service = "SERVICE";
   std::ostringstream meshfilename, meshname;
-  MEDCoupling::ParaMESH *paramesh=nullptr;
+  MEDCoupling::ParaMESH *paramesh=0;
   MEDCoupling::MEDCouplingUMesh *mesh;
-  MEDCoupling::ParaFIELD *parafield=nullptr;
+  MEDCoupling::ParaFIELD *parafield=0;
   MEDCoupling::CommInterface *interface;
   MEDCoupling::MPIProcessorGroup *source, *target;
 
@@ -72,7 +64,7 @@ void MPI2ParaMEDMEMTest::testBasicMPI2_1()
     }
 
   /* Connection to remote program */
-  auto *mpio = new MPI2Connector;
+  MPI2Connector *mpio = new MPI2Connector;
   gcom = mpio->remoteMPI2Connect(service);
   MPI_Comm_size( gcom, &gsize );
   MPI_Comm_rank( gcom, &grank );
@@ -102,7 +94,7 @@ void MPI2ParaMEDMEMTest::testBasicMPI2_1()
   mesh->setCoords(myCoords);
   myCoords->decrRef();
   paramesh=new ParaMESH(mesh,*source,"source mesh");
-  MEDCoupling::ComponentTopology const comptopo;
+  MEDCoupling::ComponentTopology comptopo;
   parafield = new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
   double *value=parafield->getField()->getArray()->getPointer();
   value[0]=34+13*((double)grank);
@@ -130,3 +122,4 @@ void MPI2ParaMEDMEMTest::testBasicMPI2_1()
 
 CPPUNIT_TEST_SUITE_REGISTRATION( MPI2ParaMEDMEMTest );
 
+#include "MPIMainTest.hxx"
index aa6f04b4c4dca3891eef13665d136791d30c10ac..e5c279d07415b0ec642905feba3f01adc0c469e7 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include <cppunit/TestFixture.h>
-#include <cppunit/TestAssert.h>
 #include <cppunit/extensions/HelperMacros.h>
 
-#include "MCIdType.hxx"
-#include "MEDCouplingMemArray.hxx"
-#include "MEDCouplingRefCountObject.hxx"
-#include "MEDCouplingNatureOfFieldEnum"
 #include "MPI2Connector.hxx"
-#include "NormalizedGeometricTypes"
 #include "ParaMESH.hxx"
 #include "ParaFIELD.hxx"
 #include "MEDCouplingUMesh.hxx"
+#include "MEDCouplingFieldDouble.hxx"
 #include "InterpKernelDEC.hxx"
 #include "MPIProcessorGroup.hxx"
 #include "CommInterface.hxx"
 
 #include <mpi.h>
 #include <iostream>
-#include <sstream>
 #include <stdlib.h>
-#include <string>
 
 class MPI2ParaMEDMEMTest : public CppUnit::TestFixture
 {
@@ -57,9 +49,9 @@ void MPI2ParaMEDMEMTest::testBasicMPI2_1()
   MPI_Comm gcom;
   std::string service = "SERVICE";
   std::ostringstream meshfilename, meshname;
-  MEDCoupling::ParaMESH *paramesh=nullptr;
+  MEDCoupling::ParaMESH *paramesh=0;
   MEDCoupling::MEDCouplingUMesh* mesh;
-  MEDCoupling::ParaFIELD *parafield=nullptr;
+  MEDCoupling::ParaFIELD *parafield=0;
   MEDCoupling::CommInterface* interface;
   MEDCoupling::MPIProcessorGroup* source, *target;
   
@@ -72,7 +64,7 @@ void MPI2ParaMEDMEMTest::testBasicMPI2_1()
     }
 
   /* Connection to remote program */
-  auto *mpio = new MPI2Connector;
+  MPI2Connector *mpio = new MPI2Connector;
   gcom = mpio->remoteMPI2Connect(service);
   
   MPI_Comm_size( gcom, &gsize );
@@ -106,7 +98,7 @@ void MPI2ParaMEDMEMTest::testBasicMPI2_1()
   mesh->setCoords(myCoords);
   myCoords->decrRef();
   paramesh=new ParaMESH (mesh,*target,"target mesh");
-  MEDCoupling::ComponentTopology const comptopo;
+  MEDCoupling::ComponentTopology comptopo;
   parafield = new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
 
   MEDCoupling::InterpKernelDEC dec(*source,*target);
@@ -135,3 +127,4 @@ void MPI2ParaMEDMEMTest::testBasicMPI2_1()
 
 CPPUNIT_TEST_SUITE_REGISTRATION( MPI2ParaMEDMEMTest );
 
+#include "MPIMainTest.hxx"
index a78b0f1c1b6379557c6e2fada39431a24ebd9a56..bf33f7eded3d947932dc5227c673645d49db20ec 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include "MCIdType.hxx"
 #include "ParaMEDMEMTest.hxx"
 #include <cppunit/TestAssert.h>
 
+#include "InterpolationUtils.hxx"
 #include "CommInterface.hxx"
+#include "ProcessorGroup.hxx"
 #include "MPIProcessorGroup.hxx"
+#include "Topology.hxx"
 #include "BlockTopology.hxx"
 
-#include <utility>
+#include <string>
 
 // use this define to enable lines, execution of which leads to Segmentation Fault
 #define ENABLE_FAULTS
@@ -64,8 +66,8 @@ void ParaMEDMEMTest::testBlockTopology_constructor()
   MPI_Comm_size(MPI_COMM_WORLD,&size);
   int rank;
   MPI_Comm_rank(MPI_COMM_WORLD,&rank);
-  CommInterface const interface;
-  MPIProcessorGroup const group(interface);
+  CommInterface interface;
+  MPIProcessorGroup group(interface);
   BlockTopology blocktopo(group,1);
   CPPUNIT_ASSERT_EQUAL(ToIdType(1),blocktopo.getNbLocalElements());
   CPPUNIT_ASSERT_EQUAL(ToIdType(size),blocktopo.getNbElements());
@@ -105,8 +107,8 @@ void ParaMEDMEMTest::testBlockTopology_serialize()
   MPI_Comm_size(MPI_COMM_WORLD,&size);
   int rank;
   MPI_Comm_rank(MPI_COMM_WORLD,&rank);
-  CommInterface const interface;
-  MPIProcessorGroup const group(interface);
+  CommInterface interface;
+  MPIProcessorGroup group(interface);
   BlockTopology blocktopo(group,3);
 
 //testing the serialization process that is used to transfer a
index 1301d5b72f8898b30ba9c7ddbebd3a1faf3c4a27..8207031d5acc6943d14546c1c3af643774ac3d4b 100644 (file)
@@ -20,6 +20,7 @@
 #include "ParaMEDMEMTest.hxx"
 #include <cppunit/TestAssert.h>
 #include "CommInterface.hxx"
+#include "ProcessorGroup.hxx"
 #include "ByStringMPIProcessorGroup.hxx"
 
 #include <string>
@@ -44,8 +45,8 @@ using namespace MEDCoupling;
  
 void ParaMEDMEMTest::testByStringMPIProcessorGroup_constructor()
 {
-  CommInterface const comm_interface;
-  auto* group = new ByStringMPIProcessorGroup(comm_interface);
+  CommInterface comm_interface;
+  ByStringMPIProcessorGroup* group = new ByStringMPIProcessorGroup(comm_interface);
   int size;
   MPI_Comm_size(MPI_COMM_WORLD, &size);
   CPPUNIT_ASSERT_EQUAL(size,group->size());
@@ -71,9 +72,9 @@ void ParaMEDMEMTest::testByStringMPIProcessorGroup_stringconstructor()
   else
     myTag = "gr1";
 
-  CommInterface const comm_interface;
+  CommInterface comm_interface;
   ByStringMPIProcessorGroup * group = new ByStringMPIProcessorGroup(comm_interface,myTag,MPI_COMM_WORLD);
-  auto * copygroup = new ByStringMPIProcessorGroup(*group);
+  ByStringMPIProcessorGroup * copygroup = new ByStringMPIProcessorGroup(*group);
   CPPUNIT_ASSERT(group);
   CPPUNIT_ASSERT(copygroup);
 
index 28d1638966ca0586a01ba33dd96165296eb02035..e976fe1c6a5a53da71e188acb17fe234f10b19a5 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include "MEDCouplingMemArray.hxx"
-#include "MCIdType.hxx"
-#include "NormalizedGeometricTypes"
-#include "MEDCouplingRefCountObject.hxx"
-#include "MEDCouplingNatureOfFieldEnum"
 #include "ParaMEDMEMTest.hxx"
 #include "CommInterface.hxx"
+#include "ProcessorGroup.hxx"
 #include "MPIProcessorGroup.hxx"
 #include "InterpKernelDEC.hxx"
 #include "MEDCouplingUMesh.hxx"
@@ -31,7 +27,7 @@
 #include "ParaFIELD.hxx"
 #include "ComponentTopology.hxx"
 
-#include <cppunit/TestAssert.h>
+#include <set>
 
 using namespace MEDCoupling;
 
@@ -44,22 +40,22 @@ void ParaMEDMEMTest::testFabienAPI1()
   //
   if(size!=3)
     return ;
-  int const procs_source_c[1]={0};
+  int procs_source_c[1]={0};
   std::set<int> procs_source(procs_source_c,procs_source_c+1);
-  int const procs_target_c[1]={1};
+  int procs_target_c[1]={1};
   std::set<int> procs_target(procs_target_c,procs_target_c+1);
   //
-  MEDCoupling::MEDCouplingUMesh *mesh=nullptr;
-  MEDCoupling::ParaMESH *paramesh=nullptr;
-  MEDCoupling::ParaFIELD *parafield=nullptr;
+  MEDCoupling::MEDCouplingUMesh *mesh=0;
+  MEDCoupling::ParaMESH *paramesh=0;
+  MEDCoupling::ParaFIELD *parafield=0;
   //
-  MEDCoupling::CommInterface const interface;
+  MEDCoupling::CommInterface interface;
   //
   MPI_Barrier(MPI_COMM_WORLD);
   double targetCoords[8]={ 0.,0., 1., 0., 0., 1., 1., 1. };
-  CommInterface const comm;
+  CommInterface comm;
   //
-  auto *dec=new MEDCoupling::InterpKernelDEC(procs_source,procs_target);
+  MEDCoupling::InterpKernelDEC *dec=new MEDCoupling::InterpKernelDEC(procs_source,procs_target);
   if(dec->isInSourceSide())
     {    
       mesh=MEDCouplingUMesh::New();
@@ -73,7 +69,7 @@ void ParaMEDMEMTest::testFabienAPI1()
       mesh->allocateCells(1);
       mesh->insertNextCell(INTERP_KERNEL::NORM_QUAD4,4,targetConn);
       mesh->finishInsertingCells();
-      MEDCoupling::ComponentTopology const comptopo;
+      MEDCoupling::ComponentTopology comptopo;
       paramesh=new ParaMESH(mesh,*dec->getSourceGrp(),"source mesh");
       parafield=new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
       parafield->getField()->setNature(IntensiveMaximum);
@@ -94,7 +90,7 @@ void ParaMEDMEMTest::testFabienAPI1()
       mesh->insertNextCell(INTERP_KERNEL::NORM_TRI3,3,targetConn);
       mesh->insertNextCell(INTERP_KERNEL::NORM_TRI3,3,targetConn+3);
       mesh->finishInsertingCells();
-      MEDCoupling::ComponentTopology const comptopo;
+      MEDCoupling::ComponentTopology comptopo;
       paramesh=new ParaMESH(mesh,*dec->getTargetGrp(),"target mesh");
       parafield=new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
       parafield->getField()->setNature(IntensiveMaximum);
@@ -129,22 +125,22 @@ void ParaMEDMEMTest::testFabienAPI2()
   //
   if(size!=3)
     return ;
-  int const procs_source_c[1]={2};//difference with testFabienAPI1
+  int procs_source_c[1]={2};//difference with testFabienAPI1
   std::set<int> procs_source(procs_source_c,procs_source_c+1);
-  int const procs_target_c[1]={1};
+  int procs_target_c[1]={1};
   std::set<int> procs_target(procs_target_c,procs_target_c+1);
   //
-  MEDCoupling::MEDCouplingUMesh *mesh=nullptr;
-  MEDCoupling::ParaMESH *paramesh=nullptr;
-  MEDCoupling::ParaFIELD *parafield=nullptr;
+  MEDCoupling::MEDCouplingUMesh *mesh=0;
+  MEDCoupling::ParaMESH *paramesh=0;
+  MEDCoupling::ParaFIELD *parafield=0;
   //
-  MEDCoupling::CommInterface const interface;
+  MEDCoupling::CommInterface interface;
   //
   MPI_Barrier(MPI_COMM_WORLD);
   double targetCoords[8]={ 0.,0., 1., 0., 0., 1., 1., 1. };
-  CommInterface const comm;
+  CommInterface comm;
   //
-  auto *dec=new MEDCoupling::InterpKernelDEC(procs_source,procs_target);
+  MEDCoupling::InterpKernelDEC *dec=new MEDCoupling::InterpKernelDEC(procs_source,procs_target);
   if(dec->isInSourceSide())
     {    
       mesh=MEDCouplingUMesh::New();
@@ -158,7 +154,7 @@ void ParaMEDMEMTest::testFabienAPI2()
       mesh->allocateCells(1);
       mesh->insertNextCell(INTERP_KERNEL::NORM_QUAD4,4,targetConn);
       mesh->finishInsertingCells();
-      MEDCoupling::ComponentTopology const comptopo;
+      MEDCoupling::ComponentTopology comptopo;
       paramesh=new ParaMESH(mesh,*dec->getSourceGrp(),"source mesh");
       parafield=new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
       parafield->getField()->setNature(IntensiveMaximum);
@@ -179,7 +175,7 @@ void ParaMEDMEMTest::testFabienAPI2()
       mesh->insertNextCell(INTERP_KERNEL::NORM_TRI3,3,targetConn);
       mesh->insertNextCell(INTERP_KERNEL::NORM_TRI3,3,targetConn+3);
       mesh->finishInsertingCells();
-      MEDCoupling::ComponentTopology const comptopo;
+      MEDCoupling::ComponentTopology comptopo;
       paramesh=new ParaMESH(mesh,*dec->getTargetGrp(),"target mesh");
       parafield=new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
       parafield->getField()->setNature(IntensiveMaximum);
index 11d7706a8bbce283f2d06af46a919a319e646523..51d1895e59d9d29aa42e0634b95842cbf0e332b7 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include "MEDCouplingMemArray.hxx"
-#include "MCAuto.hxx"
-#include "MCIdType.hxx"
-#include "NormalizedGeometricTypes"
-#include "MEDCouplingRefCountObject.hxx"
-#include "MEDCouplingNatureOfFieldEnum"
-#include "InterpKernelException.hxx"
-#include "InterpolationOptions.hxx"
 #include "ParaMEDMEMTest.hxx"
 #include <cppunit/TestAssert.h>
 
@@ -40,8 +32,8 @@
 #include "ComponentTopology.hxx"
 #include "BlockTopology.hxx"
 
-#include <cstddef>
-#include <sstream>
+#include <set>
+#include <time.h>
 #include <iostream>
 #include <assert.h>
 #include <string>
@@ -155,14 +147,14 @@ void ParaMEDMEMTest::testGauthier1()
     {1.,1.,1e200,1e200},
     {20.5,1.,1e200,1e200}
   };
-  int const expectedLgth[8]={4,4,2,2,4,4,2,2};
+  int expectedLgth[8]={4,4,2,2,4,4,2,2};
   
   for (int send=0;send<2;send++)
     for (int rec=0;rec<2;rec++)
       {
         InterpKernelDEC dec_emetteur(emetteur_group, recepteur_group);
-        MEDCoupling::ParaFIELD *champ_emetteur(nullptr),*champ_recepteur(nullptr);
-        MEDCoupling::ParaMESH *paramesh(nullptr);
+        MEDCoupling::ParaFIELD *champ_emetteur(0),*champ_recepteur(0);
+        MEDCoupling::ParaMESH *paramesh(0);
         MCAuto<MEDCouplingUMesh> mesh;
         dec_emetteur.setOrientation(2);
         if (send==0)
@@ -174,7 +166,7 @@ void ParaMEDMEMTest::testGauthier1()
             mesh=init_triangleGauthier1(is_master);
           }
         paramesh=new MEDCoupling::ParaMESH(mesh,recepteur_group.containsMyRank()?recepteur_group:emetteur_group,"emetteur mesh");
-        MEDCoupling::ComponentTopology const comptopo;
+        MEDCoupling::ComponentTopology comptopo;
         champ_emetteur=new MEDCoupling::ParaFIELD(ON_CELLS,ONE_TIME,paramesh,comptopo);
         champ_emetteur->getField()->setNature(IntensiveMaximum);
         champ_emetteur->setOwnSupport(true);
@@ -220,7 +212,7 @@ void ParaMEDMEMTest::testGauthier1()
               //bool ok=false; // Is the time interval successfully solved ?
     
               // Loop on the time interval tries
-              if(true) {
+              if(1) {
       
 
                 if (cas=="emetteur")
@@ -258,8 +250,8 @@ void ParaMEDMEMTest::testGauthier1()
 void ParaMEDMEMTest::testGauthier2()
 {
   std::cout << "testGauthier2\n";
-  double const valuesExpected1[2]={0.,0.};
-  double const valuesExpected2[2]={0.95,0.970625};
+  double valuesExpected1[2]={0.,0.};
+  double valuesExpected2[2]={0.95,0.970625};
   
   double valuesExpected30[]={0., 0., 0.05, 0., 0., 0.15, 0., 0., 0.25, 0., 0., 0.35, 0., 0., 0.45, 0., 0., 0.55, 0., 0., 0.65, 0., 0., 0.75, 0., 0., 0.85, 0., 0., 0.95};
   double valuesExpected31[]={0.,  0.,  0.029375,  0.,  0.,  0.029375,  0.,  0.,  0.1,  0.,  0.,  0.1,  0.,  0.,  0.2,  0.,  0.,  0.2,  0.,  0.,  0.3,  0.,  0.,  0.3,  0.,  0.,  0.4,  0.,  0.,  0.4,  0.,  0.,  0.5,  0.,  0.,  0.5,  0.,  0.,  0.6,  0.,  0.,  0.6,  0.,  0.,  0.7,  0.,  0.,  0.7,  0.,  0.,  0.8,  0.,  0.,  0.8,  0.,  0.,  0.9,  0.,  0.,  0.9,  0.,  0.,  0.970625,  0.,  0.,  0.970625 };
@@ -282,7 +274,7 @@ void ParaMEDMEMTest::testGauthier2()
       MPIProcessorGroup entree_chaude_group(comm,entree_chaude_ids);
       MPIProcessorGroup Genepi_group(comm,Genepi_ids);
 
-      MEDCoupling::ParaFIELD *vitesse(nullptr);
+      MEDCoupling::ParaFIELD *vitesse(0);
       InterpKernelDEC dec_vit_in_chaude(entree_chaude_group, Genepi_group);
 
       if ( entree_chaude_group.containsMyRank())
@@ -302,7 +294,7 @@ void ParaMEDMEMTest::testGauthier2()
           arr=DataArrayDouble::New(); arr->alloc(63,3);
           std::copy(valsOfField,valsOfField+189,arr->getPointer());
           f->setArray(arr); f->setNature(IntensiveMaximum);
-          auto *paramesh(new MEDCoupling::ParaMESH(mesh,entree_chaude_group,"emetteur mesh"));
+          MEDCoupling::ParaMESH *paramesh(new MEDCoupling::ParaMESH(mesh,entree_chaude_group,"emetteur mesh"));
           vitesse=new MEDCoupling::ParaFIELD(f,paramesh,entree_chaude_group);
           vitesse->setOwnSupport(true);
           dec_vit_in_chaude.setMethod("P1");
@@ -322,7 +314,7 @@ void ParaMEDMEMTest::testGauthier2()
           f->setMesh(mesh); f->setName("vitesse_in_chaude");
           arr=DataArrayDouble::New(); arr->alloc(f->getNumberOfTuplesExpected()*3); arr->fillWithZero(); arr->rearrange(3);
           f->setArray(arr); f->setNature(IntensiveMaximum);
-          auto *paramesh(new MEDCoupling::ParaMESH(mesh,Genepi_group,"recepteur mesh"));
+          MEDCoupling::ParaMESH *paramesh(new MEDCoupling::ParaMESH(mesh,Genepi_group,"recepteur mesh"));
           vitesse=new MEDCoupling::ParaFIELD(f,paramesh,Genepi_group);
           vitesse->setOwnSupport(true);
           dec_vit_in_chaude.setMethod(f->getDiscretization()->getRepr());
@@ -354,7 +346,7 @@ void ParaMEDMEMTest::testGauthier2()
           CPPUNIT_ASSERT_DOUBLES_EQUAL(valuesExpected1[type],pmin,1e-12);
           CPPUNIT_ASSERT_DOUBLES_EQUAL(valuesExpected2[type],pmax,1e-12);
 
-          std::size_t const nbCompo(vitesse->getField()->getNumberOfComponents());
+          std::size_t nbCompo(vitesse->getField()->getNumberOfComponents());
           p=vitesse->getField()->getArray()->begin();
           for(int i=0;i<vitesse->getField()->getNumberOfTuples();i++)
             for(std::size_t c=0;c<nbCompo;c++,p++)
@@ -449,7 +441,7 @@ void ParaMEDMEMTest::testGauthier3_GEN(bool withIDs, int nprocs)
     {1.,1.,1e200,1e200},
     {20.5,1.,1e200,1e200}
   };
-  int const expectedLgth[8]={4,4,2,2,4,4,2,2};
+  int expectedLgth[8]={4,4,2,2,4,4,2,2};
 
   for (int send=0;send<2;send++)
     for (int rec=0;rec<2;rec++)
@@ -460,8 +452,8 @@ void ParaMEDMEMTest::testGauthier3_GEN(bool withIDs, int nprocs)
         else
           decu[0] = InterpKernelDEC(emetteur_group,recepteur_group);
         InterpKernelDEC& dec_emetteur=decu[0];
-        MEDCoupling::ParaFIELD *champ_emetteur(nullptr),*champ_recepteur(nullptr);
-        MEDCoupling::ParaMESH *paramesh(nullptr);
+        MEDCoupling::ParaFIELD *champ_emetteur(0),*champ_recepteur(0);
+        MEDCoupling::ParaMESH *paramesh(0);
         MCAuto<MEDCouplingUMesh> mesh;
         dec_emetteur.setOrientation(2);
         if (send==0)
@@ -475,7 +467,7 @@ void ParaMEDMEMTest::testGauthier3_GEN(bool withIDs, int nprocs)
         if (cas!="vide")
           {
             paramesh=new MEDCoupling::ParaMESH(mesh,recepteur_group.containsMyRank()?recepteur_group:emetteur_group,"emetteur mesh");
-            MEDCoupling::ComponentTopology const comptopo;
+            MEDCoupling::ComponentTopology comptopo;
             champ_emetteur=new MEDCoupling::ParaFIELD(ON_CELLS,ONE_TIME,paramesh,comptopo);
             champ_emetteur->getField()->setNature(IntensiveMaximum);
             champ_emetteur->setOwnSupport(true);
@@ -521,7 +513,7 @@ void ParaMEDMEMTest::testGauthier3_GEN(bool withIDs, int nprocs)
                 //bool ok=false; // Is the time interval successfully solved ?
 
                 // Loop on the time interval tries
-                if(true) {
+                if(1) {
 
 
                     if (cas=="emetteur")
@@ -577,7 +569,7 @@ void ParaMEDMEMTest::testGauthier4()
   //
   if(size!=3)
     return ;
-  int const nproc_source = 1;
+  int nproc_source = 1;
   set<int> self_procs;
   set<int> procs_source;
   set<int> procs_target;
@@ -588,9 +580,9 @@ void ParaMEDMEMTest::testGauthier4()
     procs_target.insert(i);
   self_procs.insert(rank);
   //
-  MEDCoupling::MEDCouplingUMesh *mesh=nullptr;
-  MEDCoupling::ParaMESH *paramesh=nullptr;
-  MEDCoupling::ParaFIELD* parafield=nullptr;
+  MEDCoupling::MEDCouplingUMesh *mesh=0;
+  MEDCoupling::ParaMESH *paramesh=0;
+  MEDCoupling::ParaFIELD* parafield=0;
   //
   MEDCoupling::CommInterface interface;
   //
@@ -613,7 +605,7 @@ void ParaMEDMEMTest::testGauthier4()
       mesh->setCoords(myCoords);
       myCoords->decrRef();
       paramesh=new ParaMESH(mesh,*source_group,"source mesh");
-      MEDCoupling::ComponentTopology const comptopo;
+      MEDCoupling::ComponentTopology comptopo;
       parafield = new ParaFIELD(ON_NODES,NO_TIME,paramesh,comptopo);
       double *value=parafield->getField()->getArray()->getPointer();
       std::copy(sourceVals,sourceVals+19,value);
@@ -634,7 +626,7 @@ void ParaMEDMEMTest::testGauthier4()
           mesh->setCoords(myCoords);
           myCoords->decrRef();
           paramesh=new ParaMESH (mesh,*target_group,"target mesh");
-          MEDCoupling::ComponentTopology const comptopo;
+          MEDCoupling::ComponentTopology comptopo;
           parafield = new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
         }
       else if(rank==2)
@@ -651,7 +643,7 @@ void ParaMEDMEMTest::testGauthier4()
           mesh->setCoords(myCoords);
           myCoords->decrRef();
           paramesh=new ParaMESH (mesh,*target_group,"target mesh");
-          MEDCoupling::ComponentTopology const comptopo;
+          MEDCoupling::ComponentTopology comptopo;
           parafield = new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
         }
     }
index b94f4e5bb4230f15436a83ccc840338daf46e594..a0bd0bd6a64788dd46853447d34e6ce81bccc30d 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include "MCAuto.hxx"
-#include "MEDCouplingMemArray.hxx"
-#include "MCIdType.hxx"
-#include "NormalizedGeometricTypes"
-#include "MEDCouplingRefCountObject.hxx"
-#include "MEDCouplingNatureOfFieldEnum"
 #include "ParaMEDMEMTest.hxx"
 #include "CommInterface.hxx"
+#include "ProcessorGroup.hxx"
 #include "MPIProcessorGroup.hxx"
 #include "ComponentTopology.hxx"
 #include "ParaMESH.hxx"
@@ -33,6 +28,7 @@
 
 #include "MEDCouplingUMesh.hxx"
 
+#include <set>
 #include <string>
 #include <time.h>
 #include <iostream>
@@ -42,11 +38,11 @@ using namespace std;
 using namespace MEDCoupling;
 using namespace ICoCo;
 
-using synctype = enum {sync_and,sync_or};
+typedef enum {sync_and,sync_or} synctype;
 void synchronize_bool(bool& stop, synctype s)
 {
   int my_stop;
-  int const my_stop_temp = stop?1:0;
+  int my_stop_temp = stop?1:0;
   if (s==sync_and)
     MPI_Allreduce(&my_stop_temp,&my_stop,1,MPI_INTEGER,MPI_MIN,MPI_COMM_WORLD);
   else // if (s==sync_or)
@@ -56,7 +52,7 @@ void synchronize_bool(bool& stop, synctype s)
 
 void synchronize_dt(double& dt)
 {
-  double const dttemp=dt;
+  double dttemp=dt;
   MPI_Allreduce(&dttemp,&dt,1,MPI_DOUBLE,MPI_MIN,MPI_COMM_WORLD);
 }
 
@@ -126,13 +122,13 @@ void ParaMEDMEMTest::testICoco1()
 
   InterpKernelDEC dec_emetteur(emetteur_group,recepteur_group);
   dec_emetteur.setOrientation(2);
-  MEDCoupling::ParaFIELD *champ_emetteur(nullptr),*champ_recepteur(nullptr);
-  MEDCoupling::ParaMESH *paramesh(nullptr);
+  MEDCoupling::ParaFIELD *champ_emetteur(0),*champ_recepteur(0);
+  MEDCoupling::ParaMESH *paramesh(0);
   if (cas=="emetteur") 
     {
       MCAuto<MEDCoupling::MEDCouplingUMesh> mesh_emetteur(init_triangle());
       paramesh=new MEDCoupling::ParaMESH(mesh_emetteur,emetteur_group,"emetteur mesh");
-      MEDCoupling::ComponentTopology const comptopo;
+      MEDCoupling::ComponentTopology comptopo;
       champ_emetteur=new MEDCoupling::ParaFIELD(ON_CELLS,ONE_TIME,paramesh,comptopo);
       champ_emetteur->getField()->setNature(IntensiveMaximum);
       champ_emetteur->setOwnSupport(true);
@@ -142,7 +138,7 @@ void ParaMEDMEMTest::testICoco1()
     {
       MCAuto<MEDCoupling::MEDCouplingUMesh> mesh_recepteur(init_quad());
       paramesh=new MEDCoupling::ParaMESH(mesh_recepteur,recepteur_group,"recepteur mesh");
-      MEDCoupling::ComponentTopology const comptopo;
+      MEDCoupling::ComponentTopology comptopo;
       champ_recepteur=new MEDCoupling::ParaFIELD(ON_CELLS,ONE_TIME,paramesh,comptopo);
       champ_recepteur->getField()->setNature(IntensiveMaximum);
       champ_recepteur->setOwnSupport(true);
@@ -150,7 +146,7 @@ void ParaMEDMEMTest::testICoco1()
   
   MPI_Barrier(MPI_COMM_WORLD);
 
-  clock_t const clock0(clock());
+  clock_t clock0(clock());
   int compti=0;
 
   bool init(true),stop(false);
@@ -158,7 +154,7 @@ void ParaMEDMEMTest::testICoco1()
   while(!stop)
     {
       compti++;
-      clock_t const clocki= clock ();
+      clock_t clocki= clock ();
       cout << compti << " CLOCK " << (clocki-clock0)*1.e-6 << endl; 
       for (int non_unif=0;non_unif<2;non_unif++)
         {
index 6f0ab00a7d089bc1e6df7f0946436fb79d1b67fb..781c4ed84c4ef40acde2456fbc5668c916b7b447 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include "MCIdType.hxx"
-#include "NormalizedGeometricTypes"
-#include "MEDCouplingMemArray.hxx"
-#include "MEDCouplingRefCountObject.hxx"
-#include "MEDCouplingNatureOfFieldEnum"
-#include "MCAuto.hxx"
-#include "MCType.hxx"
-#include "DECOptions.hxx"
 #include "ParaMEDMEMTest.hxx"
 #include <cppunit/TestAssert.h>
 
 #include "TestInterpKernelUtils.hxx"
 
  
-#include <sstream>
-#include <iostream>
-#include <cstdlib>
 #include <string>
+#include <iterator>
 
 // use this define to enable lines, execution of which leads to Segmentation Fault
 #define ENABLE_FAULTS
@@ -89,7 +79,7 @@ void ParaMEDMEMTest::testInterpKernelDEC_1D()
   //
   if(size!=5)
     return ;
-  int const nproc_source = 3;
+  int nproc_source = 3;
   set<int> self_procs;
   set<int> procs_source;
   set<int> procs_target;
@@ -100,9 +90,9 @@ void ParaMEDMEMTest::testInterpKernelDEC_1D()
     procs_target.insert(i);
   self_procs.insert(rank);
   //
-  MEDCoupling::MEDCouplingUMesh *mesh=nullptr;
-  MEDCoupling::ParaMESH *paramesh=nullptr;
-  MEDCoupling::ParaFIELD *parafieldP0=nullptr;
+  MEDCoupling::MEDCouplingUMesh *mesh=0;
+  MEDCoupling::ParaMESH *paramesh=0;
+  MEDCoupling::ParaFIELD *parafieldP0=0;
   //
   MEDCoupling::CommInterface interface;
   //
@@ -157,7 +147,7 @@ void ParaMEDMEMTest::testInterpKernelDEC_1D()
           myCoords->decrRef();
         }
       paramesh=new ParaMESH(mesh,*source_group,"source mesh");
-      MEDCoupling::ComponentTopology const comptopo;
+      MEDCoupling::ComponentTopology comptopo;
       parafieldP0 = new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
       double *valueP0=parafieldP0->getField()->getArray()->getPointer();
       parafieldP0->getField()->setNature(IntensiveMaximum);
@@ -207,7 +197,7 @@ void ParaMEDMEMTest::testInterpKernelDEC_1D()
           myCoords->decrRef();
           paramesh=new ParaMESH(mesh,*target_group,targetMeshName);
         }
-      MEDCoupling::ComponentTopology const comptopo;
+      MEDCoupling::ComponentTopology comptopo;
       parafieldP0 = new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
       parafieldP0->getField()->setNature(IntensiveMaximum);
     }
@@ -278,7 +268,7 @@ void ParaMEDMEMTest::testInterpKernelDEC_2DCurve()
   //
   if(size!=5)
     return ;
-  int const nproc_source = 3;
+  int nproc_source = 3;
   set<int> self_procs;
   set<int> procs_source;
   set<int> procs_target;
@@ -289,9 +279,9 @@ void ParaMEDMEMTest::testInterpKernelDEC_2DCurve()
     procs_target.insert(i);
   self_procs.insert(rank);
   //
-  MEDCoupling::MEDCouplingUMesh *mesh=nullptr;
-  MEDCoupling::ParaMESH *paramesh=nullptr;
-  MEDCoupling::ParaFIELD *parafieldP0=nullptr;
+  MEDCoupling::MEDCouplingUMesh *mesh=0;
+  MEDCoupling::ParaMESH *paramesh=0;
+  MEDCoupling::ParaFIELD *parafieldP0=0;
   //
   MEDCoupling::CommInterface interface;
   //
@@ -346,7 +336,7 @@ void ParaMEDMEMTest::testInterpKernelDEC_2DCurve()
           myCoords->decrRef();
         }
       paramesh=new ParaMESH(mesh,*source_group,"source mesh");
-      MEDCoupling::ComponentTopology const comptopo;
+      MEDCoupling::ComponentTopology comptopo;
       parafieldP0 = new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
       double *valueP0=parafieldP0->getField()->getArray()->getPointer();
       parafieldP0->getField()->setNature(IntensiveMaximum);
@@ -396,7 +386,7 @@ void ParaMEDMEMTest::testInterpKernelDEC_2DCurve()
           myCoords->decrRef();
           paramesh=new ParaMESH(mesh,*target_group,targetMeshName);
         }
-      MEDCoupling::ComponentTopology const comptopo;
+      MEDCoupling::ComponentTopology comptopo;
       parafieldP0 = new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
       parafieldP0->getField()->setNature(IntensiveMaximum);
     }
@@ -472,8 +462,8 @@ void ParaMEDMEMTest::testInterpKernelDEC_2DCurve()
  
 void ParaMEDMEMTest::testInterpKernelDEC_2D_(const char *srcMeth, const char *targetMeth)
 {
-  std::string const srcM(srcMeth);
-  std::string const targetM(targetMeth);
+  std::string srcM(srcMeth);
+  std::string targetM(targetMeth);
   int size;
   int rank;
   MPI_Comm_size(MPI_COMM_WORLD,&size);
@@ -482,7 +472,7 @@ void ParaMEDMEMTest::testInterpKernelDEC_2D_(const char *srcMeth, const char *ta
   //the test is meant to run on five processors
   if (size !=5) return ;
    
-  int const nproc_source = 3;
+  int nproc_source = 3;
   set<int> self_procs;
   set<int> procs_source;
   set<int> procs_target;
@@ -508,8 +498,8 @@ void ParaMEDMEMTest::testInterpKernelDEC_2D_(const char *srcMeth, const char *ta
   MEDCoupling::ParaFIELD* parafield = nullptr;
   ICoCo::MEDDoubleField* icocofield = nullptr;
   
-  string const filename_xml1              = "square1_split";
-  string const filename_xml2              = "square2_split";
+  string filename_xml1              = "square1_split";
+  string filename_xml2              = "square2_split";
   //string filename_seq_wr            = makeTmpFile("");
   //string filename_seq_med           = makeTmpFile("myWrField_seq_pointe221.med");
   
@@ -519,11 +509,11 @@ void ParaMEDMEMTest::testInterpKernelDEC_2D_(const char *srcMeth, const char *ta
   MPI_Barrier(MPI_COMM_WORLD);
   if (source_group->containsMyRank())
     {
-      string const master = filename_xml1;
+      string master = filename_xml1;
       
       ostringstream strstream;
       strstream <<master<<rank+1<<".med";
-      string const fName = INTERP_TEST::getResourceFile(strstream.str());
+      string fName = INTERP_TEST::getResourceFile(strstream.str());
       ostringstream meshname ;
       meshname<< "Mesh_2_"<< rank+1;
       
@@ -533,7 +523,7 @@ void ParaMEDMEMTest::testInterpKernelDEC_2D_(const char *srcMeth, const char *ta
       paramesh=new ParaMESH (mesh,*source_group,"source mesh");
     
       //      MEDCoupling::ParaSUPPORT* parasupport=new UnstructuredParaSUPPORT( support,*source_group);
-      MEDCoupling::ComponentTopology const comptopo;
+      MEDCoupling::ComponentTopology comptopo;
       if(srcM=="P0")
         {
           parafield = new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
@@ -560,17 +550,17 @@ void ParaMEDMEMTest::testInterpKernelDEC_2D_(const char *srcMeth, const char *ta
   //loading the geometry for the target group
   if (target_group->containsMyRank())
     {
-      string const master= filename_xml2;
+      string master= filename_xml2;
       ostringstream strstream;
       strstream << master<<(rank-nproc_source+1)<<".med";
-      string const fName = INTERP_TEST::getResourceFile(strstream.str());
+      string fName = INTERP_TEST::getResourceFile(strstream.str());
       ostringstream meshname ;
       meshname<< "Mesh_3_"<<rank-nproc_source+1;
       mesh = ReadUMeshFromFile(fName.c_str(),meshname.str().c_str(),0);
       
       paramesh=new ParaMESH (mesh,*target_group,"target mesh");
       //      MEDCoupling::ParaSUPPORT* parasupport=new UnstructuredParaSUPPORT(support,*target_group);
-      MEDCoupling::ComponentTopology const comptopo;
+      MEDCoupling::ComponentTopology comptopo;
       if(targetM=="P0")
         {
           parafield = new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
@@ -680,8 +670,8 @@ void ParaMEDMEMTest::testInterpKernelDEC_2D_(const char *srcMeth, const char *ta
 
 void ParaMEDMEMTest::testInterpKernelDEC2_2D_(const char *srcMeth, const char *targetMeth)
 {
-  std::string const srcM(srcMeth);
-  std::string const targetM(targetMeth);
+  std::string srcM(srcMeth);
+  std::string targetM(targetMeth);
   int size;
   int rank;
   MPI_Comm_size(MPI_COMM_WORLD,&size);
@@ -690,7 +680,7 @@ void ParaMEDMEMTest::testInterpKernelDEC2_2D_(const char *srcMeth, const char *t
   //the test is meant to run on five processors
   if (size !=5) return ;
    
-  int const nproc_source = 3;
+  int nproc_source = 3;
   set<int> self_procs;
   set<int> procs_source;
   set<int> procs_target;
@@ -714,25 +704,25 @@ void ParaMEDMEMTest::testInterpKernelDEC2_2D_(const char *srcMeth, const char *t
   MEDCoupling::MEDCouplingUMesh* mesh = nullptr;
   MEDCoupling::MEDCouplingFieldDouble* mcfield = nullptr;
   
-  string const filename_xml1              = "square1_split";
-  string const filename_xml2              = "square2_split";
+  string filename_xml1              = "square1_split";
+  string filename_xml2              = "square2_split";
   
   // To remove tmp files from disk
-  ParaMEDMEMTest_TmpFilesRemover const aRemover;
+  ParaMEDMEMTest_TmpFilesRemover aRemover;
   
   MPI_Barrier(MPI_COMM_WORLD);
   if (source_group->containsMyRank())
     {
-      string const master = filename_xml1;
+      string master = filename_xml1;
       
       ostringstream strstream;
       strstream <<master<<rank+1<<".med";
-      string const fName = INTERP_TEST::getResourceFile(strstream.str());
+      string fName = INTERP_TEST::getResourceFile(strstream.str());
       ostringstream meshname ;
       meshname<< "Mesh_2_"<< rank+1;
       
       mesh=ReadUMeshFromFile(fName.c_str(),meshname.str().c_str(),0);
-      MEDCoupling::ComponentTopology const comptopo;
+      MEDCoupling::ComponentTopology comptopo;
       if(srcM=="P0")
         {
           mcfield = MEDCouplingFieldDouble::New(ON_CELLS,NO_TIME);
@@ -768,14 +758,14 @@ void ParaMEDMEMTest::testInterpKernelDEC2_2D_(const char *srcMeth, const char *t
   //loading the geometry for the target group
   if (target_group->containsMyRank())
     {
-      string const master= filename_xml2;
+      string master= filename_xml2;
       ostringstream strstream;
       strstream << master<<(rank-nproc_source+1)<<".med";
-      string const fName = INTERP_TEST::getResourceFile(strstream.str());
+      string fName = INTERP_TEST::getResourceFile(strstream.str());
       ostringstream meshname ;
       meshname<< "Mesh_3_"<<rank-nproc_source+1;
       mesh = ReadUMeshFromFile(fName.c_str(),meshname.str().c_str(),0);
-      MEDCoupling::ComponentTopology const comptopo;
+      MEDCoupling::ComponentTopology comptopo;
       if(targetM=="P0")
         {
           mcfield = MEDCouplingFieldDouble::New(ON_CELLS,NO_TIME);
@@ -839,8 +829,8 @@ void ParaMEDMEMTest::testInterpKernelDEC2_2D_(const char *srcMeth, const char *t
 
 void ParaMEDMEMTest::testInterpKernelDEC_3D_(const char *srcMeth, const char *targetMeth)
 {
-  std::string const srcM(srcMeth);
-  std::string const targetM(targetMeth);
+  std::string srcM(srcMeth);
+  std::string targetM(targetMeth);
   int size;
   int rank;
   MPI_Comm_size(MPI_COMM_WORLD,&size);
@@ -849,7 +839,7 @@ void ParaMEDMEMTest::testInterpKernelDEC_3D_(const char *srcMeth, const char *ta
   //the test is meant to run on five processors
   if (size !=3) return ;
    
-  int const nproc_source = 2;
+  int nproc_source = 2;
   set<int> self_procs;
   set<int> procs_source;
   set<int> procs_target;
@@ -877,12 +867,12 @@ void ParaMEDMEMTest::testInterpKernelDEC_3D_(const char *srcMeth, const char *ta
   
   char * tmp_dir_c                    = getenv("TMP");
   string tmp_dir;
-  if (tmp_dir_c != nullptr)
+  if (tmp_dir_c != NULL)
     tmp_dir = string(tmp_dir_c);
   else
     tmp_dir = "/tmp";
-  string const filename_xml1              = "Mesh3D_10_2d";
-  string const filename_xml2              = "Mesh3D_11";
+  string filename_xml1              = "Mesh3D_10_2d";
+  string filename_xml2              = "Mesh3D_11";
   //string filename_seq_wr            = makeTmpFile("");
   //string filename_seq_med           = makeTmpFile("myWrField_seq_pointe221.med");
   
@@ -892,11 +882,11 @@ void ParaMEDMEMTest::testInterpKernelDEC_3D_(const char *srcMeth, const char *ta
   MPI_Barrier(MPI_COMM_WORLD);
   if (source_group->containsMyRank())
     {
-      string const master = filename_xml1;
+      string master = filename_xml1;
       
       ostringstream strstream;
       strstream <<master<<rank+1<<".med";
-      std::string const fName = INTERP_TEST::getResourceFile(strstream.str());
+      std::string fName = INTERP_TEST::getResourceFile(strstream.str());
       ostringstream meshname ;
       meshname<< "Mesh_3_"<< rank+1;
       
@@ -906,7 +896,7 @@ void ParaMEDMEMTest::testInterpKernelDEC_3D_(const char *srcMeth, const char *ta
       paramesh=new ParaMESH (mesh,*source_group,"source mesh");
     
       //      MEDCoupling::ParaSUPPORT* parasupport=new UnstructuredParaSUPPORT( support,*source_group);
-      MEDCoupling::ComponentTopology const comptopo;
+      MEDCoupling::ComponentTopology comptopo;
       if(srcM=="P0")
         {
           parafield = new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
@@ -933,17 +923,17 @@ void ParaMEDMEMTest::testInterpKernelDEC_3D_(const char *srcMeth, const char *ta
   //loading the geometry for the target group
   if (target_group->containsMyRank())
     {
-      string const master= filename_xml2;
+      string master= filename_xml2;
       ostringstream strstream;
       strstream << master << ".med";
-      std::string const fName = INTERP_TEST::getResourceFile(strstream.str());
+      std::string fName = INTERP_TEST::getResourceFile(strstream.str());
       ostringstream meshname ;
       meshname<< "Mesh_6";
       mesh = ReadUMeshFromFile(fName.c_str(),meshname.str().c_str(),0);
       
       paramesh=new ParaMESH (mesh,*target_group,"target mesh");
       //      MEDCoupling::ParaSUPPORT* parasupport=new UnstructuredParaSUPPORT(support,*target_group);
-      MEDCoupling::ComponentTopology const comptopo;
+      MEDCoupling::ComponentTopology comptopo;
       if(targetM=="P0")
         {
           parafield = new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
@@ -1115,7 +1105,7 @@ void ParaMEDMEMTest::testInterpKernelDECNonOverlapp_2D_P0P0()
   //
   if(size!=5)
     return ;
-  int const nproc_source = 2;
+  int nproc_source = 2;
   set<int> self_procs;
   set<int> procs_source;
   set<int> procs_target;
@@ -1126,9 +1116,9 @@ void ParaMEDMEMTest::testInterpKernelDECNonOverlapp_2D_P0P0()
     procs_target.insert(i);
   self_procs.insert(rank);
   //
-  MEDCoupling::MEDCouplingUMesh *mesh=nullptr;
-  MEDCoupling::ParaMESH *paramesh=nullptr;
-  MEDCoupling::ParaFIELD* parafield=nullptr;
+  MEDCoupling::MEDCouplingUMesh *mesh=0;
+  MEDCoupling::ParaMESH *paramesh=0;
+  MEDCoupling::ParaFIELD* parafield=0;
   //
   MEDCoupling::CommInterface interface;
   //
@@ -1151,7 +1141,7 @@ void ParaMEDMEMTest::testInterpKernelDECNonOverlapp_2D_P0P0()
       mesh->setCoords(myCoords);
       myCoords->decrRef();
       paramesh=new ParaMESH(mesh,*source_group,"source mesh");
-      MEDCoupling::ComponentTopology const comptopo;
+      MEDCoupling::ComponentTopology comptopo;
       parafield = new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
       double *value=parafield->getField()->getArray()->getPointer();
       value[0]=34+13*((double)rank);
@@ -1171,7 +1161,7 @@ void ParaMEDMEMTest::testInterpKernelDECNonOverlapp_2D_P0P0()
       mesh->setCoords(myCoords);
       myCoords->decrRef();
       paramesh=new ParaMESH (mesh,*target_group,"target mesh");
-      MEDCoupling::ComponentTopology const comptopo;
+      MEDCoupling::ComponentTopology comptopo;
       parafield = new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
     }
   //test 1 - Conservative volumic
@@ -1394,7 +1384,7 @@ void ParaMEDMEMTest::testInterpKernelDECNonOverlapp_2D_P0P1P1P0()
   //
   if(size!=5)
     return ;
-  int const nproc_source = 2;
+  int nproc_source = 2;
   set<int> self_procs;
   set<int> procs_source;
   set<int> procs_target;
@@ -1405,9 +1395,9 @@ void ParaMEDMEMTest::testInterpKernelDECNonOverlapp_2D_P0P1P1P0()
     procs_target.insert(i);
   self_procs.insert(rank);
   //
-  MEDCoupling::MEDCouplingUMesh *mesh=nullptr;
-  MEDCoupling::ParaMESH *paramesh=nullptr;
-  MEDCoupling::ParaFIELD *parafieldP0=nullptr,*parafieldP1=nullptr;
+  MEDCoupling::MEDCouplingUMesh *mesh=0;
+  MEDCoupling::ParaMESH *paramesh=0;
+  MEDCoupling::ParaFIELD *parafieldP0=0,*parafieldP1=0;
   //
   MEDCoupling::CommInterface interface;
   //
@@ -1449,7 +1439,7 @@ void ParaMEDMEMTest::testInterpKernelDECNonOverlapp_2D_P0P1P1P0()
           myCoords->decrRef();
         }
       paramesh=new ParaMESH(mesh,*source_group,"source mesh");
-      MEDCoupling::ComponentTopology const comptopo;
+      MEDCoupling::ComponentTopology comptopo;
       parafieldP0 = new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
       parafieldP1 = new ParaFIELD(ON_NODES,NO_TIME,paramesh, comptopo);
       double *valueP0=parafieldP0->getField()->getArray()->getPointer();
@@ -1532,7 +1522,7 @@ void ParaMEDMEMTest::testInterpKernelDECNonOverlapp_2D_P0P1P1P0()
           std::copy(globalNumberingP4.begin(), globalNumberingP4.end(), da->rwBegin());
           paramesh->setNodeGlobal(da);
         }
-      MEDCoupling::ComponentTopology const comptopo;
+      MEDCoupling::ComponentTopology comptopo;
       parafieldP0 = new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
       parafieldP1 = new ParaFIELD(ON_NODES,NO_TIME,paramesh, comptopo);
       parafieldP0->getField()->setNature(IntensiveMaximum);
@@ -1613,7 +1603,7 @@ void ParaMEDMEMTest::testInterpKernelDEC2DM1D_P0P0()
   //
   if(size!=3)
     return ;
-  int const nproc_source=2;
+  int nproc_source=2;
   set<int> procs_source;
   set<int> procs_target;
   //
@@ -1622,9 +1612,9 @@ void ParaMEDMEMTest::testInterpKernelDEC2DM1D_P0P0()
   for (int i=nproc_source;i<size; i++)
     procs_target.insert(i);
   //
-  MEDCoupling::MEDCouplingUMesh *mesh=nullptr;
-  MEDCoupling::ParaMESH *paramesh=nullptr;
-  MEDCoupling::ParaFIELD *parafield=nullptr;
+  MEDCoupling::MEDCouplingUMesh *mesh=0;
+  MEDCoupling::ParaMESH *paramesh=0;
+  MEDCoupling::ParaFIELD *parafield=0;
   //
   MEDCoupling::CommInterface interface;
   //
@@ -1659,7 +1649,7 @@ void ParaMEDMEMTest::testInterpKernelDEC2DM1D_P0P0()
           mesh->insertNextCell(INTERP_KERNEL::NORM_QUAD4,4,targetConn+7);
           mesh->finishInsertingCells();
         }
-      MEDCoupling::ComponentTopology const comptopo;
+      MEDCoupling::ComponentTopology comptopo;
       paramesh=new ParaMESH(mesh,*source_group,"source mesh");
       parafield=new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
       parafield->getField()->setNature(IntensiveMaximum);
@@ -1672,7 +1662,7 @@ void ParaMEDMEMTest::testInterpKernelDEC2DM1D_P0P0()
   else
     {
       mesh=MEDCouplingUMesh::New("an example of -1 D mesh",-1);
-      MEDCoupling::ComponentTopology const comptopo;
+      MEDCoupling::ComponentTopology comptopo;
       paramesh=new ParaMESH(mesh,*target_group,"target mesh");
       parafield=new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
       parafield->getField()->setNature(IntensiveMaximum);
@@ -1844,15 +1834,15 @@ void ParaMEDMEMTest::testInterpKernelDECPartialProcs()
   procs_source.insert(0);
   procs_target.insert(1);
   //
-  MEDCoupling::MEDCouplingUMesh *mesh=nullptr;
-  MEDCoupling::ParaMESH *paramesh=nullptr;
-  MEDCoupling::ParaFIELD *parafield=nullptr;
+  MEDCoupling::MEDCouplingUMesh *mesh=0;
+  MEDCoupling::ParaMESH *paramesh=0;
+  MEDCoupling::ParaFIELD *parafield=0;
   //
   MEDCoupling::CommInterface interface;
   //
   MPI_Barrier(MPI_COMM_WORLD);
   double targetCoords[8]={ 0.,0., 1., 0., 0., 1., 1., 1. };
-  CommInterface const comm;
+  CommInterface comm;
   int grpIds[2]={0,1};
   MPI_Group grp,group_world;
   comm.commGroup(MPI_COMM_WORLD,&group_world);
@@ -1860,10 +1850,10 @@ void ParaMEDMEMTest::testInterpKernelDECPartialProcs()
   MPI_Comm partialComm;
   comm.commCreate(MPI_COMM_WORLD,grp,&partialComm);
   //
-  ProcessorGroup* target_group=nullptr;
-  ProcessorGroup* source_group=nullptr;
+  ProcessorGroup* target_group=0;
+  ProcessorGroup* source_group=0;
   //
-  MEDCoupling::InterpKernelDEC *dec=nullptr;
+  MEDCoupling::InterpKernelDEC *dec=0;
   if(rank==0 || rank==1)
     {
       target_group = new MEDCoupling::MPIProcessorGroup(interface,procs_target,partialComm);
@@ -1881,7 +1871,7 @@ void ParaMEDMEMTest::testInterpKernelDECPartialProcs()
           mesh->allocateCells(1);
           mesh->insertNextCell(INTERP_KERNEL::NORM_QUAD4,4,targetConn);
           mesh->finishInsertingCells();
-          MEDCoupling::ComponentTopology const comptopo;
+          MEDCoupling::ComponentTopology comptopo;
           paramesh=new ParaMESH(mesh,*source_group,"source mesh");
           parafield=new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
           parafield->getField()->setNature(IntensiveMaximum);
@@ -1907,7 +1897,7 @@ void ParaMEDMEMTest::testInterpKernelDECPartialProcs()
           mesh->insertNextCell(INTERP_KERNEL::NORM_TRI3,3,targetConn);
           mesh->insertNextCell(INTERP_KERNEL::NORM_TRI3,3,targetConn+3);
           mesh->finishInsertingCells();
-          MEDCoupling::ComponentTopology const comptopo;
+          MEDCoupling::ComponentTopology comptopo;
           paramesh=new ParaMESH(mesh,*target_group,"target mesh");
           parafield=new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
           parafield->getField()->setNature(IntensiveMaximum);
@@ -1945,7 +1935,7 @@ void ParaMEDMEMTest::testInterpKernelDEC3DSurfEmptyBBox()
   //
   if(size!=3)
     return ;
-  int const nproc_source = 1;
+  int nproc_source = 1;
   set<int> self_procs;
   set<int> procs_source;
   set<int> procs_target;
@@ -1956,9 +1946,9 @@ void ParaMEDMEMTest::testInterpKernelDEC3DSurfEmptyBBox()
     procs_target.insert(i);
   self_procs.insert(rank);
   //
-  MEDCoupling::MEDCouplingUMesh *mesh=nullptr;
-  MEDCoupling::ParaMESH *paramesh=nullptr;
-  MEDCoupling::ParaFIELD *parafieldP0=nullptr;
+  MEDCoupling::MEDCouplingUMesh *mesh=0;
+  MEDCoupling::ParaMESH *paramesh=0;
+  MEDCoupling::ParaFIELD *parafieldP0=0;
   //
   MEDCoupling::CommInterface interface;
   //
@@ -1983,7 +1973,7 @@ void ParaMEDMEMTest::testInterpKernelDEC3DSurfEmptyBBox()
       myCoords->decrRef();
       //
       paramesh=new ParaMESH(mesh,*source_group,"source mesh");
-      MEDCoupling::ComponentTopology const comptopo;
+      MEDCoupling::ComponentTopology comptopo;
       parafieldP0 = new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
       double *valueP0=parafieldP0->getField()->getArray()->getPointer();
       parafieldP0->getField()->setNature(IntensiveMaximum);
@@ -2022,7 +2012,7 @@ void ParaMEDMEMTest::testInterpKernelDEC3DSurfEmptyBBox()
           myCoords->decrRef();
           paramesh=new ParaMESH(mesh,*target_group,targetMeshName);
         }
-      MEDCoupling::ComponentTopology const comptopo;
+      MEDCoupling::ComponentTopology comptopo;
       parafieldP0 = new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
       parafieldP0->getField()->setNature(IntensiveMaximum);
     }
@@ -2093,8 +2083,8 @@ void ParaMEDMEMTest::testAsynchronousInterpKernelDEC_2D(double dtA, double tmaxA
                                                         double dtB, double tmaxB, bool WithPointToPoint, bool Asynchronous,
                                                         bool WithInterp, const char *srcMeth, const char *targetMeth)
 {
-  std::string const srcM(srcMeth);
-  std::string const targetM(targetMeth);
+  std::string srcM(srcMeth);
+  std::string targetM(targetMeth);
   int size;
   int rank;
   MPI_Comm_size(MPI_COMM_WORLD,&size);
@@ -2103,7 +2093,7 @@ void ParaMEDMEMTest::testAsynchronousInterpKernelDEC_2D(double dtA, double tmaxA
   //the test is meant to run on five processors
   if (size !=5) return ;
    
-  int const nproc_source = 3;
+  int nproc_source = 3;
   set<int> self_procs;
   set<int> procs_source;
   set<int> procs_target;
@@ -2131,27 +2121,27 @@ void ParaMEDMEMTest::testAsynchronousInterpKernelDEC_2D(double dtA, double tmaxA
 
   char * tmp_dir_c                    = getenv("TMP");
   string tmp_dir;
-  if (tmp_dir_c != nullptr)
+  if (tmp_dir_c != NULL)
     tmp_dir = string(tmp_dir_c);
   else
     tmp_dir = "/tmp";
-  string const filename_xml1              = "square1_split";
-  string const filename_xml2              = "square2_split";
+  string filename_xml1              = "square1_split";
+  string filename_xml2              = "square2_split";
   //string filename_seq_wr            = makeTmpFile("");
   //string filename_seq_med           = makeTmpFile("myWrField_seq_pointe221.med");
   
   // To remove tmp files from disk
-  ParaMEDMEMTest_TmpFilesRemover const aRemover;
+  ParaMEDMEMTest_TmpFilesRemover aRemover;
   
   MPI_Barrier(MPI_COMM_WORLD);
 
   if (source_group->containsMyRank())
     {
-      string const master = filename_xml1;
+      string master = filename_xml1;
       
       ostringstream strstream;
       strstream <<master<<rank+1<<".med";
-      string const fName = INTERP_TEST::getResourceFile(strstream.str());
+      string fName = INTERP_TEST::getResourceFile(strstream.str());
       ostringstream meshname ;
       meshname<< "Mesh_2_"<< rank+1;
       
@@ -2160,7 +2150,7 @@ void ParaMEDMEMTest::testAsynchronousInterpKernelDEC_2D(double dtA, double tmaxA
       paramesh=new ParaMESH (mesh,*source_group,"source mesh");
     
       //      MEDCoupling::ParaSUPPORT* parasupport=new UnstructuredParaSUPPORT( support,*source_group);
-      MEDCoupling::ComponentTopology const comptopo;
+      MEDCoupling::ComponentTopology comptopo;
       if(srcM=="P0")
         {
           parafield = new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
@@ -2190,10 +2180,10 @@ void ParaMEDMEMTest::testAsynchronousInterpKernelDEC_2D(double dtA, double tmaxA
   //loading the geometry for the target group
   if (target_group->containsMyRank())
     {
-      string const master= filename_xml2;
+      string master= filename_xml2;
       ostringstream strstream;
       strstream << master<<(rank-nproc_source+1)<<".med";
-      string const fName = INTERP_TEST::getResourceFile(strstream.str());
+      string fName = INTERP_TEST::getResourceFile(strstream.str());
       ostringstream meshname ;
       meshname<< "Mesh_3_"<<rank-nproc_source+1;
       
@@ -2201,7 +2191,7 @@ void ParaMEDMEMTest::testAsynchronousInterpKernelDEC_2D(double dtA, double tmaxA
 
       paramesh=new ParaMESH (mesh,*target_group,"target mesh");
       //      MEDCoupling::ParaSUPPORT* parasupport=new UnstructuredParaSUPPORT(support,*target_group);
-      MEDCoupling::ComponentTopology const comptopo;
+      MEDCoupling::ComponentTopology comptopo;
       if(targetM=="P0")
         {
           parafield = new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
@@ -2284,7 +2274,7 @@ void ParaMEDMEMTest::testAsynchronousInterpKernelDEC_2D(double dtA, double tmaxA
           cout << "testAsynchronousInterpKernelDEC_2D" << rank << " time " << time
                << " dtB " << dtB << " tmaxB " << tmaxB << endl ;
           dec.recvData( time );
-          double const vi = parafield->getVolumeIntegral(0,true);
+          double vi = parafield->getVolumeIntegral(0,true);
           cout << "testAsynchronousInterpKernelDEC_2D" << rank << " time " << time
                << " VolumeIntegral " << vi
                << " time*10000 " << time*10000 << endl ;
index 31ad920c2e2a494245de7c77153322410c8a30a9..c992562d0e1a5943177e6bf797b73ce3fe6a4676 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include "MCAuto.hxx"
-#include "MEDCouplingCMesh.hxx"
-#include "MEDCouplingMemArray.hxx"
-#include "MCIdType.hxx"
-#include "NormalizedGeometricTypes"
 #include "ParaMEDMEMTest.hxx"
 #include "MEDLoader.hxx"
 
@@ -34,7 +29,9 @@
 #include <cppunit/TestAssert.h>
 
 #include <algorithm>
-#include <string>
+#include <numeric>
+#include <iostream>
+#include <iterator>
 
 using namespace MEDCoupling;
 
@@ -199,7 +196,7 @@ void ParaMEDMEMTest::testParallelLoad1()
   else
       distrib = { {INTERP_KERNEL::NORM_QUAD4,{2,3,6,7}} };
 
-  std::string const filename=INTERP_TEST::getResourceFile("SimpleTest2D.med");
+  std::string filename=INTERP_TEST::getResourceFile("SimpleTest2D.med");
   MCAuto<MEDFileUMesh> mu = ParaMEDFileUMesh::ParaNew(distrib, MPI_COMM_WORLD, MPI_INFO_NULL, filename, "mesh");
   MCAuto<MEDCouplingUMesh> mesh = mu->getMeshAtLevel(0);
   MCAuto<MEDCouplingUMesh> meshRef = genLocMesh2D(rank);
@@ -230,7 +227,7 @@ void ParaMEDMEMTest::testParallelLoad2()
  else
    distrib= { {INTERP_KERNEL::NORM_TRI3,{0,1}} , {INTERP_KERNEL::NORM_QUAD4,{1,3}} };
 
-  std::string const filename=INTERP_TEST::getResourceFile("Test2DMultiGeoType.med");
+  std::string filename=INTERP_TEST::getResourceFile("Test2DMultiGeoType.med");
   MCAuto<MEDFileUMesh> mu = ParaMEDFileUMesh::ParaNew(distrib, MPI_COMM_WORLD, MPI_INFO_NULL, filename, "mesh");
   MCAuto<MEDCouplingUMesh> mesh = mu->getMeshAtLevel(0);
   MEDCouplingUMesh *meshRef;
@@ -279,7 +276,7 @@ void ParaMEDMEMTest::testParallelLoad3()
       distrib = { {INTERP_KERNEL::NORM_TETRA4,distribCells} };
     }
 
-  std::string const filename=INTERP_TEST::getResourceFile("SimpleTest3D.med");
+  std::string filename=INTERP_TEST::getResourceFile("SimpleTest3D.med");
   MCAuto<MEDFileUMesh> mu = ParaMEDFileUMesh::ParaNew(distrib, MPI_COMM_WORLD, MPI_INFO_NULL, filename, "mesh");
   MCAuto<MEDCouplingUMesh> mesh = mu->getMeshAtLevel(0);
   CPPUNIT_ASSERT_EQUAL(96,(int)mesh->getNumberOfCells());
@@ -349,7 +346,7 @@ void ParaMEDMEMTest::testParallelLoad4()
   else
       distrib = {2,3,6,7};
 
-  std::string const filename=INTERP_TEST::getResourceFile("SimpleTest2D.med");
+  std::string filename=INTERP_TEST::getResourceFile("SimpleTest2D.med");
   MCAuto<MEDFileField1TS> f1TS = ParaMEDFileField1TS::ParaNew(MPI_COMM_WORLD, MPI_INFO_NULL,filename,"fieldOnCells","mesh",distrib,ON_CELLS,INTERP_KERNEL::NORM_QUAD4);
   MCAuto<MEDCouplingFieldDouble> fieldRef = genLocFieldCells(rank);
   CPPUNIT_ASSERT(f1TS->getUndergroundDataArray()->isEqual(*fieldRef->getArray(),1e-12));
@@ -375,7 +372,7 @@ void ParaMEDMEMTest::testParallelLoad5()
   else
       distrib = {2,3,4,7,8,9,12,13,14};
 
-  std::string const filename=INTERP_TEST::getResourceFile("SimpleTest2D.med");
+  std::string filename=INTERP_TEST::getResourceFile("SimpleTest2D.med");
   // for fields on nodes, geometrical type is not needed
   MCAuto<MEDFileField1TS> f1TS = ParaMEDFileField1TS::ParaNew(MPI_COMM_WORLD, MPI_INFO_NULL,filename,"fieldOnNodes","mesh",distrib,ON_NODES,INTERP_KERNEL::NORM_ERROR);
   MCAuto<MEDCouplingFieldDouble> fieldRef = genLocFieldNodes(rank);
index caf429cf046170b1b4f99efe298dc12ded932b1a..2883b4055ad1b5b19dd2a41f8602e8e215912b8a 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include "InterpKernelException.hxx"
 #include "ParaMEDMEMTest.hxx"
 #include <cppunit/TestAssert.h>
 #include "CommInterface.hxx"
 #include "ProcessorGroup.hxx"
 #include "MPIProcessorGroup.hxx"
+#include "InterpolationUtils.hxx"
 
+#include <string>
 
 // use this define to enable lines, execution of which leads to Segmentation Fault
 #define ENABLE_FAULTS
@@ -57,7 +58,7 @@ using namespace MEDCoupling;
 void ParaMEDMEMTest::testMPIProcessorGroup_constructor()
 {
   CommInterface comm_interface;
-  auto* group = new MPIProcessorGroup(comm_interface);;
+  MPIProcessorGroup* group = new MPIProcessorGroup(comm_interface);;
   int size;
   MPI_Comm_size(MPI_COMM_WORLD, &size);
   CPPUNIT_ASSERT_EQUAL(size,group->size());
@@ -98,11 +99,11 @@ void ParaMEDMEMTest::testMPIProcessorGroup_boolean()
   int size;
   MPI_Comm_size(MPI_COMM_WORLD, &size);
   
-  CommInterface const comm_interface;
+  CommInterface comm_interface;
   MPIProcessorGroup group(comm_interface,0,0);
   MPIProcessorGroup group2(comm_interface,size-1,size-1);
   ProcessorGroup* group_fuse=group.fuse(group2);
-  int const group_fuse_size=(size==1)?1:2;
+  int group_fuse_size=(size==1)?1:2;
   CPPUNIT_ASSERT_EQUAL(group_fuse_size,group_fuse->size());
  
   ProcessorGroup* group_complement=((MPIProcessorGroup*)group_fuse)->createComplementProcGroup();
@@ -128,7 +129,7 @@ void ParaMEDMEMTest::testMPIProcessorGroup_rank()
   int rank;
   MPI_Comm_rank(MPI_COMM_WORLD, &rank);
   
-  CommInterface const comm_interface;
+  CommInterface comm_interface;
   MPIProcessorGroup group(comm_interface,0,0);
   MPIProcessorGroup group2(comm_interface,size-1,size-1);
   ProcessorGroup* group_fuse=group2.fuse(group);
index afd83c0b95890264f6a875fd1117c9314a5d73f5..d8b0f358025bdc29ed7c01ab257da00ad0a57ea7 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include "MEDCouplingNatureOfFieldEnum"
-#include "MCIdType.hxx"
-#include "NormalizedGeometricTypes"
-#include "MEDCouplingRefCountObject.hxx"
 #include "ParaMEDMEMTest.hxx"
 #include <cppunit/TestAssert.h>
 
 
 #include "MEDCouplingUMesh.hxx"
 
+#include <set>
 
 using namespace std;
 
 #include "MCAuto.hxx"
 #include "MEDLoader.hxx"
+#include "MEDLoaderBase.hxx"
 #include "MEDCouplingFieldDouble.hxx"
 #include "MEDCouplingMemArray.hxx"
 #include "MEDCouplingRemapper.hxx"
 
 using namespace MEDCoupling;
 
-using MUMesh = MCAuto<MEDCouplingUMesh>;
-using MFDouble = MCAuto<MEDCouplingFieldDouble>;
-using DADouble = MCAuto<DataArrayDouble>;
+typedef  MCAuto<MEDCouplingUMesh> MUMesh;
+typedef  MCAuto<MEDCouplingFieldDouble> MFDouble;
+typedef  MCAuto<DataArrayDouble> DADouble;
 
 //void ParaMEDMEMTest::testOverlapDEC_LMEC_seq()
 //{
@@ -356,16 +354,16 @@ void prepareData2(int rank, ProcessorGroup * grp, NatureOfField nature,
                   bool stripPartOfSource=false,
                   int fieldCompoNum=1)
 {
-  MEDCouplingUMesh *meshS_0 = nullptr, *meshT_0 = nullptr;
+  MEDCouplingUMesh *meshS_0 = 0, *meshT_0 = 0;
   prepareData2_buildOneSquare(meshS_0, meshT_0);
 
   if(rank==0)
     {
       const double tr1[] = {1.5, 0.0};
-      auto *meshS_1 = static_cast<MEDCouplingUMesh*>(meshS_0->deepCopy());
+      MEDCouplingUMesh *meshS_1 = static_cast<MEDCouplingUMesh*>(meshS_0->deepCopy());
       meshS_1->translate(tr1);
       const double tr2[] = {3.0, 0.0};
-      auto *meshS_2 = static_cast<MEDCouplingUMesh*>(meshS_0->deepCopy());
+      MEDCouplingUMesh *meshS_2 = static_cast<MEDCouplingUMesh*>(meshS_0->deepCopy());
       meshS_2->translate(tr2);
 
       std::vector<const MEDCouplingUMesh*> vec;
@@ -375,7 +373,7 @@ void prepareData2(int rank, ProcessorGroup * grp, NatureOfField nature,
       meshS = MEDCouplingUMesh::MergeUMeshes(vec);
       meshS_1->decrRef(); meshS_2->decrRef();
 
-      ComponentTopology const comptopo(fieldCompoNum);
+      ComponentTopology comptopo(fieldCompoNum);
       parameshS=new ParaMESH(meshS, *grp,"source mesh");
       parafieldS=new ParaFIELD(ON_CELLS,ONE_TIME,parameshS,comptopo);
       parafieldS->getField()->setNature(nature);
@@ -392,7 +390,7 @@ void prepareData2(int rank, ProcessorGroup * grp, NatureOfField nature,
 
       //
       const double tr3[] = {0.0, -1.5};
-      auto *meshT_3 = static_cast<MEDCouplingUMesh*>(meshT_0->deepCopy());
+      MEDCouplingUMesh *meshT_3 = static_cast<MEDCouplingUMesh*>(meshT_0->deepCopy());
       meshT_3->translate(tr3);
       vec.clear();
       vec.push_back(meshT_0);vec.push_back(meshT_3);
@@ -407,10 +405,10 @@ void prepareData2(int rank, ProcessorGroup * grp, NatureOfField nature,
   if(rank==1)
     {
       const double tr3[] = {0.0, -1.5};
-      auto *meshS_3 = static_cast<MEDCouplingUMesh*>(meshS_0->deepCopy());
+      MEDCouplingUMesh *meshS_3 = static_cast<MEDCouplingUMesh*>(meshS_0->deepCopy());
       meshS_3->translate(tr3);
       const double tr4[] = {1.5, -1.5};
-      auto *meshS_4 = static_cast<MEDCouplingUMesh*>(meshS_0->deepCopy());
+      MEDCouplingUMesh *meshS_4 = static_cast<MEDCouplingUMesh*>(meshS_0->deepCopy());
       meshS_4->translate(tr4);
 
       std::vector<const MEDCouplingUMesh*> vec;
@@ -418,7 +416,7 @@ void prepareData2(int rank, ProcessorGroup * grp, NatureOfField nature,
       meshS = MEDCouplingUMesh::MergeUMeshes(vec);
       meshS_3->decrRef(); meshS_4->decrRef();
 
-      ComponentTopology const comptopo(fieldCompoNum);
+      ComponentTopology comptopo(fieldCompoNum);
       parameshS=new ParaMESH(meshS, *grp,"source mesh");
       parafieldS=new ParaFIELD(ON_CELLS,ONE_TIME,parameshS,comptopo);
       parafieldS->getField()->setNature(nature);
@@ -431,13 +429,13 @@ void prepareData2(int rank, ProcessorGroup * grp, NatureOfField nature,
 
       //
       const double tr5[] = {1.5, 0.0};
-      auto *meshT_1 = static_cast<MEDCouplingUMesh*>(meshT_0->deepCopy());
+      MEDCouplingUMesh *meshT_1 = static_cast<MEDCouplingUMesh*>(meshT_0->deepCopy());
       meshT_1->translate(tr5);
       const double tr6[] = {3.0, 0.0};
-      auto *meshT_2 = static_cast<MEDCouplingUMesh*>(meshT_0->deepCopy());
+      MEDCouplingUMesh *meshT_2 = static_cast<MEDCouplingUMesh*>(meshT_0->deepCopy());
       meshT_2->translate(tr6);
       const double tr7[] = {1.5, -1.5};
-      auto *meshT_4 = static_cast<MEDCouplingUMesh*>(meshT_0->deepCopy());
+      MEDCouplingUMesh *meshT_4 = static_cast<MEDCouplingUMesh*>(meshT_0->deepCopy());
       meshT_4->translate(tr7);
 
       vec.clear();
@@ -474,14 +472,14 @@ void testOverlapDEC_generic(int workSharingAlgo, double bbAdj)
 //      }
 
   if (size != 3) return ;
-  int const nproc = 3;
+  int nproc = 3;
   std::set<int> procs;
   for (int i=0; i<nproc; i++)
     procs.insert(i);
 
-  CommInterface const interface;
+  CommInterface interface;
   OverlapDEC dec(procs);
-  MEDCouplingFieldDouble * mcfieldS=nullptr, *mcfieldT=nullptr;
+  MEDCouplingFieldDouble * mcfieldS=0, *mcfieldT=0;
 
   prepareData1(rank, IntensiveMaximum, mcfieldS, mcfieldT);
 
@@ -569,18 +567,18 @@ void ParaMEDMEMTest::testOverlapDEC3()
   MPI_Comm_size(MPI_COMM_WORLD,&size);
   MPI_Comm_rank(MPI_COMM_WORLD,&rank);
 
-  int const nproc = 2;
+  int nproc = 2;
   if (size != nproc) return ;
   std::set<int> procs;
   for (int i=0; i<nproc; i++)
     procs.insert(i);
 
-  CommInterface const interface;
+  CommInterface interface;
   OverlapDEC dec(procs);
   ProcessorGroup * grp = dec.getGroup();
-  MEDCouplingUMesh* meshS=nullptr, *meshT=nullptr;
-  ParaMESH* parameshS=nullptr, *parameshT=nullptr;
-  ParaFIELD* parafieldS=nullptr, *parafieldT=nullptr;
+  MEDCouplingUMesh* meshS=0, *meshT=0;
+  ParaMESH* parameshS=0, *parameshT=0;
+  ParaFIELD* parafieldS=0, *parafieldT=0;
 
   prepareData2(rank, grp, IntensiveMaximum, meshS, meshT, parameshS, parameshT, parafieldS, parafieldT);
 
@@ -629,18 +627,18 @@ void ParaMEDMEMTest::testOverlapDEC4()
   MPI_Comm_size(MPI_COMM_WORLD,&size);
   MPI_Comm_rank(MPI_COMM_WORLD,&rank);
 
-  int const nproc = 2;
+  int nproc = 2;
   if (size != nproc) return ;
   std::set<int> procs;
   for (int i=0; i<nproc; i++)
     procs.insert(i);
 
-  CommInterface const interface;
+  CommInterface interface;
   OverlapDEC dec(procs);
   ProcessorGroup * grp = dec.getGroup();
-  MEDCouplingUMesh* meshS=nullptr, *meshT=nullptr;
-  ParaMESH* parameshS=nullptr, *parameshT=nullptr;
-  ParaFIELD* parafieldS=nullptr, *parafieldT=nullptr;
+  MEDCouplingUMesh* meshS=0, *meshT=0;
+  ParaMESH* parameshS=0, *parameshT=0;
+  ParaFIELD* parafieldS=0, *parafieldT=0;
 
   // As before, except than one of the source cell is removed, and that the field now has 2 components
   prepareData2(rank, grp, IntensiveMaximum, meshS, meshT, parameshS, parameshT, parafieldS, parafieldT,
@@ -654,7 +652,7 @@ void ParaMEDMEMTest::testOverlapDEC4()
 
   dec.attachSourceLocalField(parafieldS);
   dec.attachTargetLocalField(parafieldT);
-  double const defVal = -300.0;
+  double defVal = -300.0;
   dec.setDefaultValue(defVal);
   dec.synchronize();
   dec.sendRecvData(true);
index a6d21ff65c4abb7e94104fd07d9e7daed770f73a..76b719d25308f4524abd0afab6239714484afd99 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include "MEDCouplingRefCountObject.hxx"
-#include "MCIdType.hxx"
 #include "ParaMEDMEMTest.hxx"
 #include <cppunit/TestAssert.h>
 
 #include "CommInterface.hxx"
+#include "ProcessorGroup.hxx"
 #include "MPIProcessorGroup.hxx"
+#include "Topology.hxx"
 #include "DEC.hxx"
 #include "StructuredCoincidentDEC.hxx"
 #include "ParaMESH.hxx"
 #include "ParaFIELD.hxx"
 #include "ComponentTopology.hxx"
+#include "ICoCoMEDDoubleField.hxx"
 #include "MEDLoader.hxx"
 #include "MEDCouplingUMesh.hxx"
 #include "TestInterpKernelUtils.hxx"
 
-#include <sstream>
 #include <string>
 
 // use this define to enable lines, execution of which leads to Segmentation Fault
@@ -57,7 +57,7 @@ using namespace MEDCoupling;
 */
 
 void ParaMEDMEMTest::testStructuredCoincidentDEC() {
-  string const testname="ParaMEDMEM - testStructured CoincidentDEC";
+  string testname="ParaMEDMEM - testStructured CoincidentDEC";
   //  MPI_Init(&argc, &argv); 
   int size;
   int rank;
@@ -67,7 +67,7 @@ void ParaMEDMEMTest::testStructuredCoincidentDEC() {
     return;
   }
 
-  MEDCoupling::CommInterface const interface;
+  MEDCoupling::CommInterface interface;
 
   MEDCoupling::MPIProcessorGroup self_group (interface,rank,rank);
   MEDCoupling::MPIProcessorGroup target_group(interface,3,size-1);
@@ -77,13 +77,13 @@ void ParaMEDMEMTest::testStructuredCoincidentDEC() {
   MEDCoupling::ParaMESH* paramesh = nullptr;
   MEDCoupling::ParaFIELD* parafield = nullptr;
 
-  string const filename_xml1 = INTERP_TEST::getResourceFile("square1_split");
-  string const filename_2    = INTERP_TEST::getResourceFile("square1.med");
+  string filename_xml1 = INTERP_TEST::getResourceFile("square1_split");
+  string filename_2    = INTERP_TEST::getResourceFile("square1.med");
   //string filename_seq_wr  = makeTmpFile("");
   //string filename_seq_med = makeTmpFile("myWrField_seq_pointe221.med");
 
   // To remove tmp files from disk
-  ParaMEDMEMTest_TmpFilesRemover const aRemover;
+  ParaMEDMEMTest_TmpFilesRemover aRemover;
 
   //loading the geometry for the source group
 
@@ -91,7 +91,7 @@ void ParaMEDMEMTest::testStructuredCoincidentDEC() {
 
   MPI_Barrier(MPI_COMM_WORLD);
   if (source_group.containsMyRank()) {
-    string const master = filename_xml1;
+    string master = filename_xml1;
 
     ostringstream strstream;
     strstream <<master<<rank+1<<".med";
@@ -103,10 +103,10 @@ void ParaMEDMEMTest::testStructuredCoincidentDEC() {
 
     paramesh=new ParaMESH (mesh,source_group,"source mesh");
 
-    MEDCoupling::ComponentTopology const comptopo(6);
+    MEDCoupling::ComponentTopology comptopo(6);
     parafield = new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
 
-    int const nb_local=mesh->getNumberOfCells();
+    int nb_local=mesh->getNumberOfCells();
     const mcIdType* global_numbering = paramesh->getGlobalNumberingCell();
     
     double *value=parafield->getField()->getArray()->getPointer();
@@ -125,7 +125,7 @@ void ParaMEDMEMTest::testStructuredCoincidentDEC() {
   //loading the geometry for the target group
   if (target_group.containsMyRank()) {
 
-    string const meshname2("Mesh_2");
+    string meshname2("Mesh_2");
     mesh = ReadUMeshFromFile(filename_2.c_str(),meshname2.c_str(),0);
     
     paramesh=new ParaMESH (mesh,self_group,"target mesh");
@@ -133,7 +133,7 @@ void ParaMEDMEMTest::testStructuredCoincidentDEC() {
 
     parafield = new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
 
-    int const nb_local=mesh->getNumberOfCells();
+    int nb_local=mesh->getNumberOfCells();
     double *value=parafield->getField()->getArray()->getPointer();
     for (int ielem=0; ielem<nb_local; ielem++)
       for (int icomp=0; icomp<comptopo.nbLocalComponents(); icomp++)
@@ -147,7 +147,7 @@ void ParaMEDMEMTest::testStructuredCoincidentDEC() {
     //checking validity of field
     const double* recv_value = parafield->getField()->getArray()->getPointer();
     for (int i=0; i< nb_local; i++) {
-      int const first = comptopo.firstLocalComponent();
+      int first = comptopo.firstLocalComponent();
       for (int icomp = 0; icomp < comptopo.nbLocalComponents(); icomp++)
         CPPUNIT_ASSERT_DOUBLES_EQUAL(recv_value[i*comptopo.nbLocalComponents()+icomp],(double)(i*6+icomp+first),1e-12);
     }
index e5710db42a6282e8f4fdeac4d7e623012673c746..340e0c0917a9d759c9c63e755514f288b0117a51 100644 (file)
@@ -20,7 +20,6 @@
 // --- include all MEDMEM Test
 //
 #include "ParaMEDMEMTest.hxx"
-#include <cppunit/extensions/HelperMacros.h>
 
 // --- Registers the fixture into the 'registry'
 
index 910a6570a850fda33f79e196da3cae0f1158b649..76dbaaa67eacde9357332627e74b5b71c39f990a 100644 (file)
 // See http://www.salome-platform.org/ or email : webmaster.salome@opencascade.com
 //
 
-#include <cstdlib>
-#include <iostream>
-#include <sstream>
-#include <bits/types/struct_timeval.h>
 #include <time.h>
 #include <sys/times.h>
 #include <sys/time.h>
-#include "InterpolationOptions.hxx"
-#include "MEDCouplingRefCountObject.hxx"
-#include "DECOptions.hxx"
 #include "ParaMEDMEMTest.hxx"
+#include <cppunit/TestAssert.h>
 
 #include "CommInterface.hxx"
 #include "ProcessorGroup.hxx"
@@ -122,7 +116,7 @@ int main(int argc, char *argv[])
 
 void testInterpKernelDEC_2D(const string& filename_xml1, const string& meshname1,
                             const string& filename_xml2, const string& meshname2,
-                            int nproc_source, double  /*epsilon*/, bool tri, bool all)
+                            int nproc_source, double epsilon, bool tri, bool all)
 {
   float tcpu, tcpu_u, tcpu_s, telps;
   int size;
@@ -160,19 +154,19 @@ void testInterpKernelDEC_2D(const string& filename_xml1, const string& meshname1
   ICoCo::MEDDoubleField* icocofield = nullptr;
   
   // To remove tmp files from disk
-  ParaMEDMEMTest_TmpFilesRemover const aRemover;
+  ParaMEDMEMTest_TmpFilesRemover aRemover;
   
   MPI_Barrier(MPI_COMM_WORLD);
   if (source_group->containsMyRank()){
-    string const master = filename_xml1;
+    string master = filename_xml1;
       
-    ostringstream const strstream;
+    ostringstream strstream;
     if( nproc_source == 1 )
       strstream <<master<<".med";
     else
       strstream <<master<<rank+1<<".med";
 
-    ostringstream const meshname ;
+    ostringstream meshname ;
     if( nproc_source == 1 )
       meshname<< meshname1;
     else
@@ -187,10 +181,10 @@ void testInterpKernelDEC_2D(const string& filename_xml1, const string& meshname1
     
     paramesh=new ParaMESH (mesh,*source_group,"source mesh");
     
-    MEDCoupling::ComponentTopology const comptopo;
+    MEDCoupling::ComponentTopology comptopo;
     parafield = new ParaFIELD(ON_CELLS, NO_TIME, paramesh, comptopo);
 
-    int const nb_local=mesh->getNumberOfCells();
+    int nb_local=mesh->getNumberOfCells();
     double *value=parafield->getField()->getArray()->getPointer();
     for(int ielem=0; ielem<nb_local;ielem++)
       value[ielem]=1.0;
@@ -202,13 +196,13 @@ void testInterpKernelDEC_2D(const string& filename_xml1, const string& meshname1
   
   //loading the geometry for the target group
   if (target_group->containsMyRank()){
-    string const master= filename_xml2;
-    ostringstream const strstream;
+    string master= filename_xml2;
+    ostringstream strstream;
     if( (size-nproc_source) == 1 )
       strstream << master<<".med";
     else
       strstream << master<<(rank-nproc_source+1)<<".med";
-    ostringstream const meshname ;
+    ostringstream meshname ;
     if( (size-nproc_source) == 1 )
       meshname<< meshname2;
     else
@@ -220,10 +214,10 @@ void testInterpKernelDEC_2D(const string& filename_xml1, const string& meshname1
     mesh->incrRef();
 
     paramesh=new ParaMESH (mesh,*target_group,"target mesh");
-    MEDCoupling::ComponentTopology const comptopo;
+    MEDCoupling::ComponentTopology comptopo;
     parafield = new ParaFIELD(ON_CELLS,NO_TIME,paramesh, comptopo);
 
-    int const nb_local=mesh->getNumberOfCells();
+    int nb_local=mesh->getNumberOfCells();
     double *value=parafield->getField()->getArray()->getPointer();
     for(int ielem=0; ielem<nb_local;ielem++)
       value[ielem]=0.0;