Salome HOME
Copyright update 2021
[tools/medcoupling.git] / src / ParaMEDMEM / CommInterface.cxx
index 6fda70ddd5fd54a9371daca96e436c68ae7a8823..f6f33020503f7535c188dcc941c043a2ecbac031 100644 (file)
@@ -1,4 +1,4 @@
-// Copyright (C) 2007-2020  CEA/DEN, EDF R&D
+// Copyright (C) 2007-2021  CEA/DEN, EDF R&D
 //
 // This library is free software; you can redistribute it and/or
 // modify it under the terms of the GNU Lesser General Public
@@ -27,40 +27,10 @@ namespace MEDCoupling
 
   MPI_Datatype ParaTraits<Int64>::MPIDataType = MPI_LONG;
 
-  /*! \anchor CommInterface-det
-     \class CommInterface
-
-    The class \a CommInterface is the gateway to the MPI library.
-    It is a wrapper around all MPI calls, thus trying to abstract the rest of the code from using the direct MPI API
-    (but this is not strictly respected overall in practice ...). It is used in all
-    the \ref parallel "DEC related classes".
-
-    It is typically instantiated after the MPI_Init() call in a program and is afterwards passed as a
-    parameter to the constructors of various \ref parallel "parallel objects" so that they access the
-    MPI library via this common interface.
-
-    As an example, the following code excerpt initializes a processor group made of the zero processor.
-
-    \verbatim
-    #include "CommInterface.hxx"
-    #include "ProcessorGroup.hxx"
-
-    int main(int argc, char** argv)
-    {
-    //initialization
-    MPI_Init(&argc, &argv);
-    MEDCoupling::CommInterface comm_interface;
-
-    //setting up a processor group with proc 0
-    set<int> procs;
-    procs.insert(0);
-    MEDCoupling::ProcessorGroup group(procs, comm_interface);
-
-    //cleanup
-    MPI_Finalize();
-    }
-    \endverbatim
-  */
+  void CommInterface::gatherArrays(MPI_Comm comm, int root, const DataArrayIdType *array, std::vector< MCAuto<DataArrayIdType> >& arraysOut) const
+  {
+    this->gatherArraysT2<mcIdType>(comm,root,array,arraysOut);
+  }
 
   /*!
    * Generalized AllGather collective communication.
@@ -68,16 +38,7 @@ namespace MEDCoupling
    */
   void CommInterface::allGatherArrays(MPI_Comm comm, const DataArrayIdType *array, std::vector< MCAuto<DataArrayIdType> >& arraysOut) const
   {
-    std::unique_ptr<mcIdType[]> result, resultIndex;
-    int size(this->allGatherArrays(comm,array,result,resultIndex));
-    arraysOut.resize(size);
-    for(int i = 0 ; i < size ; ++i)
-    {
-      arraysOut[i] = DataArrayIdType::New();
-      mcIdType nbOfEltPack(resultIndex[i+1]-resultIndex[i]);
-      arraysOut[i]->alloc(nbOfEltPack,1);
-      std::copy(result.get()+resultIndex[i],result.get()+resultIndex[i+1],arraysOut[i]->getPointer());
-    }
+    this->allGatherArraysT2<mcIdType>(comm,array,arraysOut);
   }
 
   /*!
@@ -86,18 +47,7 @@ namespace MEDCoupling
    */
   int CommInterface::allGatherArrays(MPI_Comm comm, const DataArrayIdType *array, std::unique_ptr<mcIdType[]>& result, std::unique_ptr<mcIdType[]>& resultIndex) const
   {
-    int size;
-    this->commSize(comm,&size);
-    std::unique_ptr<mcIdType[]> nbOfElems(new mcIdType[size]);
-    mcIdType nbOfCellsRequested(array->getNumberOfTuples());
-    this->allGather(&nbOfCellsRequested,1,MPI_ID_TYPE,nbOfElems.get(),1,MPI_ID_TYPE,comm);
-    mcIdType nbOfCellIdsSum(std::accumulate(nbOfElems.get(),nbOfElems.get()+size,0));
-    result.reset(new mcIdType[nbOfCellIdsSum]);
-    std::unique_ptr<int[]> nbOfElemsInt( CommInterface::ToIntArray<mcIdType>(nbOfElems,size) );
-    std::unique_ptr<int[]> offsetsIn( CommInterface::ComputeOffset(nbOfElemsInt,size) );
-    this->allGatherV(array->begin(),nbOfCellsRequested,MPI_ID_TYPE,result.get(),nbOfElemsInt.get(),offsetsIn.get(),MPI_ID_TYPE,comm);
-    resultIndex = ComputeOffsetFull<mcIdType>(nbOfElems,size);
-    return size;
+    return this->allGatherArraysT<mcIdType>(comm,array,result,resultIndex);
   }
 
   void CommInterface::allToAllArrays(MPI_Comm comm, const std::vector< MCAuto<DataArrayDouble> >& arrays, std::vector< MCAuto<DataArrayDouble> >& arraysOut) const