]> SALOME platform Git repositories - tools/medcoupling.git/commitdiff
Salome HOME
wip: fixing parallel related headers, const and using errors
authorSONOLET Aymeric <aymeric.sonolet@cea.fr>
Mon, 15 Apr 2024 08:07:02 +0000 (10:07 +0200)
committerSONOLET Aymeric <aymeric.sonolet@cea.fr>
Mon, 15 Apr 2024 08:07:02 +0000 (10:07 +0200)
20 files changed:
src/MEDPartitioner/MEDPARTITIONER_PTScotchGraph.cxx
src/MEDPartitioner/MEDPARTITIONER_ParaDomainSelector.cxx
src/MEDPartitioner/MEDPARTITIONER_UtilsPara.cxx
src/MEDPartitioner/medpartitioner_para.cxx
src/ParaMEDLoader/ParaMEDFileMesh.cxx
src/ParaMEDLoader/ParaMEDFileMesh.hxx
src/ParaMEDMEM/MPIAccess/MPIAccess.cxx
src/ParaMEDMEM/MPIAccess/MPIAccessDEC.cxx
src/ParaMEDMEM/NonCoincidentDEC.hxx
src/ParaMEDMEM/OverlapInterpolationMatrix.cxx
src/ParaMEDMEM/OverlapMapping.cxx
src/ParaMEDMEM/OverlapMapping.hxx
src/ParaMEDMEM/ParaFIELD.cxx
src/ParaMEDMEM/ParaSkyLineArray.cxx
src/ParaMEDMEM/ParaUMesh.cxx
src/ParaMEDMEMTest/ParaMEDMEMTest.cxx
src/ParaMEDMEMTest/ParaMEDMEMTest_InterpKernelDEC.cxx
src/ParaMEDMEMTest/ParaMEDMEMTest_MEDLoader.cxx
src/ParaMEDMEMTest/ParaMEDMEMTest_StructuredCoincidentDEC.cxx
src/ParaMEDMEMTest/TestParaMEDMEM.cxx

index 243d0d5889bbdc46ca43dd9ddac3fdab7fca6033..1c737c3c7b38b2b3b555c4061d1169eb62fcc013 100644 (file)
@@ -19,6 +19,7 @@
 
 #include "MEDPARTITIONER_PTScotchGraph.hxx"
 #include "MEDPARTITIONER_Graph.hxx"
+#include "MEDPARTITIONER_Utils.hxx"
 #include "MCIdType.hxx"
 
 #include "MEDCouplingSkyLineArray.hxx"
index ad8d3105d43222c5c57bb28a5eda652af290d7a1..b1cd85bd4d68935be4cab6d077b50d6a86ce7170 100644 (file)
@@ -27,6 +27,7 @@
 #include "MEDPARTITIONER_Utils.hxx"
 
 #include "MEDCouplingUMesh.hxx"
+#include "MEDCouplingSkyLineArray.hxx"
 #include "MCIdType.hxx"
 
 #include <cstddef>
@@ -107,7 +108,7 @@ bool MEDPARTITIONER::ParaDomainSelector::isOnDifferentHosts() const
   //bug: (isOnDifferentHosts here and there) is not (isOnDifferentHosts somewhere)
   //return string(name_here) != string(name_there);
   
-  int const sum_same = -1;
+  int sum_same = -1;
   int same = 1;
   if (std::string(name_here) != std::string(name_there))
     same=0;
index 66e6dc07717abed8bdc4c7a470ede3e806fc47e7..1fc7c1825ae2bc1104c6cd7b75a6e807adfeb38d 100644 (file)
@@ -63,7 +63,7 @@ std::vector<std::string> MEDPARTITIONER::SendAndReceiveVectorOfString(const std:
       MPI_Send( (void*)str.data(), (int)str.length(), MPI_CHAR, target, tag+100, MPI_COMM_WORLD );
     }
   
-  int const recSize=0;
+  int recSize=0;
   if (rank == target)
     {
       MPI_Recv(&recSize, 1, MPI_INT, source, tag, MPI_COMM_WORLD, &status);
@@ -655,7 +655,7 @@ void MEDPARTITIONER::TestPersistantMpiRingOnCommSplit(int size, int nb)
   double temps_debut=MPI_Wtime();
   int const rank=MyGlobals::_Rank;
   MPI_Comm newcomm;
-  int const color=1;
+  int color=1;
   int const rankMax=4;
   if (rank>=rankMax)
     color=MPI_UNDEFINED;
index 3d21734439e6f6d7b033cecdbd4a28c50cf2e053..33af294b4bb8d7a687607806412b8358d122f7f3 100644 (file)
@@ -39,6 +39,7 @@
 */
 
 
+#include "MEDPARTITIONER_Utils.hxx"
 
 
 #include <iostream>
index b3cf296acf09409b112f0dd0f9442adfbd20705a..6e6e8e6bc0c13c0d0167b4c1f898f3065f1d6cad 100644 (file)
@@ -33,6 +33,7 @@
 #include "MEDFileEntities.hxx"
 #include "med.h"
 #include "NormalizedGeometricTypes"
+#include "MEDLoader.hxx"
 #include <string>
 
 
@@ -44,7 +45,7 @@ using namespace MEDCoupling;
 void checkDistribution(const MPI_Comm& com, mcIdType totalNumberOfElements, const std::vector<mcIdType>& distrib)
 {
   mcIdType nbEltsInDistribLoc = distrib.size();
-  mcIdType const nbEltsInDistribTot = -1;
+  mcIdType nbEltsInDistribTot = -1;
 #ifdef HAVE_MPI
   MPI_Allreduce(&nbEltsInDistribLoc, &nbEltsInDistribTot, 1, MPI_LONG, MPI_SUM, com);
 #else
index 92eb1fdba8ec8894f1c23182ccb2ab2edace8222..10582e78a856b9748d04739ff7e4db5d06353b0e 100644 (file)
@@ -28,6 +28,7 @@
 #include <string>
 #include "MEDCouplingRefCountObject.hxx"
 #include "NormalizedGeometricTypes"
+#include "MCIdType.hxx"
 
 namespace MEDCoupling
 {
index 1e75abb671067cc01eaba38f0f904380eaef8fb8..f65270b8740ca3a14b20b3dd971e00778c58c12f 100644 (file)
@@ -292,7 +292,7 @@ namespace MEDCoupling
   // ArrayOfSendRequests for the call to SendRequestIds
   int MPIAccess::sendRequestIdsSize()
   {
-    int const size = 0;
+    int size = 0;
     for (int i = 0 ; i < _processor_group_size ; i++ )
       size += (int)_send_requests[ i ].size() ;
     return size ;
@@ -317,7 +317,7 @@ namespace MEDCoupling
   // ArrayOfRecvRequests for the call to RecvRequestIds
   int MPIAccess::recvRequestIdsSize()
   {
-    int const size = 0 ;
+    int size = 0 ;
     for (int i = 0 ; i < _processor_group_size ; i++ )
       size += (int)_recv_requests[ i ].size() ;
     return size ;
@@ -408,7 +408,7 @@ namespace MEDCoupling
         int MPItag = newRecvTag( datatype, source , aMethodIdent , false , RequestId ) ;
         sts =  _comm_interface.recv(buffer, count, datatype, source, MPItag,
                                    *_intra_communicator , MPIStatus( RequestId ) ) ;
-        int const outcount = 0 ;
+        int outcount = 0 ;
         if ( sts == MPI_SUCCESS )
           {
             MPI_Datatype datatype2 = MPIDatatype( RequestId ) ;
index 80322405bea5d827851b6504db3034909ac03e77..55f04c6022252b78128cea97281db49cdb0452a6 100644 (file)
@@ -341,7 +341,7 @@ namespace MEDCoupling
       {
         return allToAllTime( sendbuf, sendcount, sendtype , recvbuf, recvcount, recvtype ) ;
       }
-    int const sts = 0;
+    int sts = 0;
     int target ;
     int sendoffset = 0 ;
     int recvoffset = 0 ;
@@ -403,7 +403,7 @@ namespace MEDCoupling
         return allToAllvTime( sendbuf, sendcounts, sdispls, sendtype ,
                               recvbuf, recvcounts, rdispls, recvtype ) ;
       }
-    int const sts = 0;
+    int sts = 0;
     int target ;
     int SendRequestId ;
     int RecvRequestId ;
@@ -518,7 +518,7 @@ namespace MEDCoupling
   int MPIAccessDEC::allToAllTime( void* sendbuf, int sendcount , MPI_Datatype sendtype ,
                                   void* recvbuf, int recvcount , MPI_Datatype recvtype )
   {
-    int const sts = 0;
+    int sts = 0;
     int target ;
     int sendoffset = 0 ;
     int SendTimeRequestId ;
@@ -638,7 +638,7 @@ namespace MEDCoupling
                                    void* recvbuf, int* recvcounts, int* rdispls,
                                    MPI_Datatype recvtype )
   {
-    int const sts = 0;
+    int sts = 0;
     int target ;
     int SendTimeRequestId ;
     int SendDataRequestId ;
index 81a2c4bf82d2eabbff6b879a8564b0446c61026a..95ba91ebf0eef693e1ae2b0291c5daaa3009b692 100644 (file)
 #define __NONCOINCIDENTDEC_HXX__
 
 #include "DEC.hxx"
+#include "ProcessorGroup.hxx"
 
 struct _fvm_locator_t;
 
-using InterpolationMethod = enum {NN};
+typedef enum {NN} InterpolationMethod;
 
 namespace MEDCoupling
 {   
index d81d0c25a61d28c39e1cb553df62a2aa935c22ff..21bc60160c51d33627e4ec807bc542dbf356bcf9 100644 (file)
@@ -40,6 +40,7 @@
 #include "MEDCouplingUMesh.hxx"
 #include "InterpolationOptions.hxx"
 #include "ElementLocator.hxx"
+#include "MEDCouplingFieldDouble.hxx"
 
 #include <string>
 
index dafbf796c78e95efe657d4bd038909d02e0dda33..480bf8189fdb91a9c3e94e49389eb568f8889a2b 100644 (file)
@@ -312,7 +312,7 @@ void OverlapMapping::serializeMatrixStep0ST(const mcIdType *nbOfElemsSrc, mcIdTy
 {
   std::size_t const grpSize=_group.size();
   std::fill<int *>(count,count+grpSize,0);
-  std::size_t const szz=0;
+  std::size_t szz=0;
   int const myProcId=_group.myRank();
   for(std::size_t i=0;i<_matrixes_st.size();i++)
     {
index 92a3054e6ac02056c59ebe93e728457f571cdb65..6884083204cbe991ab981e0902f0cee5e8657de8 100644 (file)
@@ -25,6 +25,9 @@
 #include "MEDCouplingMemArray.hxx"
 #include "OverlapElementLocator.hxx"
 
+#include <vector>
+#include <map>
+
 //#define DEC_DEBUG
 
 namespace MEDCoupling
@@ -34,7 +37,7 @@ namespace MEDCoupling
   class MEDCouplingFieldDouble;
 
   using namespace std;
-  using SparseDoubleVec = int;
+  typedef map<mcIdType,double> SparseDoubleVec;
 
   /*!
    * Internal class, not part of the public API.
index e0bf51dd1559938bd54c7ecb24b20783cb61da21..c4b396180dfe7d2e04321d398829966086afeaaa 100644 (file)
@@ -235,8 +235,8 @@ namespace MEDCoupling
   double ParaFIELD::getVolumeIntegral(int icomp, bool isWAbs) const
   {
     CommInterface const comm_interface = _topology->getProcGroup()->getCommInterface();
-    double const integral=_field->integral(icomp,isWAbs);
-    double const total=0.;
+    double integral=_field->integral(icomp,isWAbs);
+    double total=0.;
     const MPI_Comm* comm = (dynamic_cast<const MPIProcessorGroup*>(_topology->getProcGroup()))->getComm();
     comm_interface.allReduce(&integral, &total, 1, MPI_DOUBLE, MPI_SUM, *comm);
   
index 4ab66fa90b0ce3cb9e3cbc3e5f537d27a757eb49..93da4bd78ac1ae89c4e90468e5030f710c25a9e7 100644 (file)
@@ -123,7 +123,7 @@ MCAuto<ParaSkyLineArray> ParaSkyLineArray::equiRedistribute(mcIdType nbOfEntitie
   }
   MCAuto<DataArrayIdType> idxOfSameIds(aggregatedIdsSort->indexOfSameConsecutiveValueGroups());
   //
-  MCAuto<DataArrayIdType> const globalIdsOut(aggregatedIdsSort->buildUnique());
+  MCAuto<DataArrayIdType> globalIdsOut(aggregatedIdsSort->buildUnique());
   MCAuto<MEDCouplingSkyLineArray> skOut(MEDCouplingSkyLineArray::New(indicesSorted,valuesSorted));
   skOut = skOut->groupPacks(idxOfSameIds);//group partial packs coming from different procs
   skOut = skOut->uniqueNotSortedByPack();//remove duplicates
index 315d345b292dfcde382ef92708b813bbb99b5adf..bfb7d5accec3c6444b7312da39616f54c10f2d9b 100644 (file)
@@ -85,7 +85,7 @@ MCAuto<DataArrayIdType> ParaUMesh::getCellIdsLyingOnNodesTrue(const DataArrayIdT
   int size;
   ci.commSize(comm,&size);
   std::unique_ptr<mcIdType[]> nbOfElems(new mcIdType[size]),nbOfElems2(new mcIdType[size]),nbOfElems3(new mcIdType[size]);
-  mcIdType const nbOfNodeIdsLoc(globalNodeIds->getNumberOfTuples());
+  mcIdType nbOfNodeIdsLoc(globalNodeIds->getNumberOfTuples());
   ci.allGather(&nbOfNodeIdsLoc,1,MPI_ID_TYPE,nbOfElems.get(),1,MPI_ID_TYPE,comm);
   std::vector< MCAuto<DataArrayIdType> > tabs(size);
   //store for each proc the local nodeids intercepted by current proc
@@ -154,7 +154,7 @@ MCAuto<DataArrayIdType> ParaUMesh::getCellIdsLyingOnNodesFalse(const DataArrayId
   int size;
   ci.commSize(comm,&size);
   std::unique_ptr<mcIdType[]> nbOfElems(new mcIdType[size]),nbOfElems2(new mcIdType[size]),nbOfElems3(new mcIdType[size]);
-  mcIdType const nbOfNodeIdsLoc(globalNodeIds->getNumberOfTuples());
+  mcIdType nbOfNodeIdsLoc(globalNodeIds->getNumberOfTuples());
   ci.allGather(&nbOfNodeIdsLoc,1,MPI_ID_TYPE,nbOfElems.get(),1,MPI_ID_TYPE,comm);
   // loop to avoid to all procs to have all the nodes per proc
   int const nbOfCollectiveCalls = 1;// this parameter controls the memory peak
index b1d417d906a57d21f36294ad6d98aa6aa60ae7dc..19d149ad20bca00ff6f35fd61808e5029967abff 100644 (file)
@@ -23,6 +23,7 @@
 #include <stdexcept>
 #include <stdlib.h>
 #include <string>
+#include <list>
 
 #ifndef WIN32
 #include <unistd.h>
index 58e7552aa9459c29eb2b302eb7c7b7dc7e82b8d9..6f0ab00a7d089bc1e6df7f0946436fb79d1b67fb 100644 (file)
@@ -521,7 +521,7 @@ void ParaMEDMEMTest::testInterpKernelDEC_2D_(const char *srcMeth, const char *ta
     {
       string const master = filename_xml1;
       
-      ostringstream const strstream;
+      ostringstream strstream;
       strstream <<master<<rank+1<<".med";
       string const fName = INTERP_TEST::getResourceFile(strstream.str());
       ostringstream meshname ;
@@ -561,7 +561,7 @@ void ParaMEDMEMTest::testInterpKernelDEC_2D_(const char *srcMeth, const char *ta
   if (target_group->containsMyRank())
     {
       string const master= filename_xml2;
-      ostringstream const strstream;
+      ostringstream strstream;
       strstream << master<<(rank-nproc_source+1)<<".med";
       string const fName = INTERP_TEST::getResourceFile(strstream.str());
       ostringstream meshname ;
@@ -725,7 +725,7 @@ void ParaMEDMEMTest::testInterpKernelDEC2_2D_(const char *srcMeth, const char *t
     {
       string const master = filename_xml1;
       
-      ostringstream const strstream;
+      ostringstream strstream;
       strstream <<master<<rank+1<<".med";
       string const fName = INTERP_TEST::getResourceFile(strstream.str());
       ostringstream meshname ;
@@ -769,7 +769,7 @@ void ParaMEDMEMTest::testInterpKernelDEC2_2D_(const char *srcMeth, const char *t
   if (target_group->containsMyRank())
     {
       string const master= filename_xml2;
-      ostringstream const strstream;
+      ostringstream strstream;
       strstream << master<<(rank-nproc_source+1)<<".med";
       string const fName = INTERP_TEST::getResourceFile(strstream.str());
       ostringstream meshname ;
@@ -894,7 +894,7 @@ void ParaMEDMEMTest::testInterpKernelDEC_3D_(const char *srcMeth, const char *ta
     {
       string const master = filename_xml1;
       
-      ostringstream const strstream;
+      ostringstream strstream;
       strstream <<master<<rank+1<<".med";
       std::string const fName = INTERP_TEST::getResourceFile(strstream.str());
       ostringstream meshname ;
@@ -934,7 +934,7 @@ void ParaMEDMEMTest::testInterpKernelDEC_3D_(const char *srcMeth, const char *ta
   if (target_group->containsMyRank())
     {
       string const master= filename_xml2;
-      ostringstream const strstream;
+      ostringstream strstream;
       strstream << master << ".med";
       std::string const fName = INTERP_TEST::getResourceFile(strstream.str());
       ostringstream meshname ;
@@ -1853,7 +1853,7 @@ void ParaMEDMEMTest::testInterpKernelDECPartialProcs()
   MPI_Barrier(MPI_COMM_WORLD);
   double targetCoords[8]={ 0.,0., 1., 0., 0., 1., 1., 1. };
   CommInterface const comm;
-  int const grpIds[2]={0,1};
+  int grpIds[2]={0,1};
   MPI_Group grp,group_world;
   comm.commGroup(MPI_COMM_WORLD,&group_world);
   comm.groupIncl(group_world,2,grpIds,&grp);
@@ -2149,7 +2149,7 @@ void ParaMEDMEMTest::testAsynchronousInterpKernelDEC_2D(double dtA, double tmaxA
     {
       string const master = filename_xml1;
       
-      ostringstream const strstream;
+      ostringstream strstream;
       strstream <<master<<rank+1<<".med";
       string const fName = INTERP_TEST::getResourceFile(strstream.str());
       ostringstream meshname ;
@@ -2191,7 +2191,7 @@ void ParaMEDMEMTest::testAsynchronousInterpKernelDEC_2D(double dtA, double tmaxA
   if (target_group->containsMyRank())
     {
       string const master= filename_xml2;
-      ostringstream const strstream;
+      ostringstream strstream;
       strstream << master<<(rank-nproc_source+1)<<".med";
       string const fName = INTERP_TEST::getResourceFile(strstream.str());
       ostringstream meshname ;
index ddc1247f9d48247721bfabecd6a10e73c05a995a..31ad920c2e2a494245de7c77153322410c8a30a9 100644 (file)
@@ -242,7 +242,7 @@ void ParaMEDMEMTest::testParallelLoad2()
       meshRef=genLocMeshMultipleTypes3();
   //checking that all 3 procs have correctly loaded their part
   int equal = (int)mesh->isEqual(meshRef,1e-12);
-  int const allEqual = -1;
+  int allEqual = -1;
   MPI_Allreduce(&equal, &allEqual, 1, MPI_INT,MPI_SUM,MPI_COMM_WORLD);
   CPPUNIT_ASSERT(allEqual==3);
 
index 7aee3f88d056bb7976b3c22ba2dedfeb8dfd3c77..a6d21ff65c4abb7e94104fd07d9e7daed770f73a 100644 (file)
@@ -93,7 +93,7 @@ void ParaMEDMEMTest::testStructuredCoincidentDEC() {
   if (source_group.containsMyRank()) {
     string const master = filename_xml1;
 
-    ostringstream const strstream;
+    ostringstream strstream;
     strstream <<master<<rank+1<<".med";
     ostringstream meshname;
     meshname<< "Mesh_2_"<< rank+1;
index ca88d28e94cb52b3a3a686e0a27c1f25fe4262a9..e5710db42a6282e8f4fdeac4d7e623012673c746 100644 (file)
@@ -28,3 +28,4 @@ CPPUNIT_TEST_SUITE_REGISTRATION( ParaMEDMEMTest );
 
 // --- generic Main program from KERNEL_SRC/src/Basics/Test
 
+#include "MPIMainTest.hxx"