Подтвердить что ты не робот

Отправка и получение 2D-массива по MPI

Проблема, которую я пытаюсь решить, следующая:

Серийный код С++, который я вычисляю по большой 2D-матрице. Чтобы оптимизировать этот процесс, я хочу разбить эту большую 2D-матрицу и работать на 4 узлах (скажем) с использованием MPI. Единственное сообщение, которое происходит между узлами, - это обмен значениями краев в конце каждого временного шага. Каждый node делится данными массива ребер A [i] [j] со своим соседом.

Основываясь на чтении о MPI, у меня есть следующая схема, которая будет реализована.

if (myrank == 0)
{
 for (i= 0 to x)
 for (y= 0 to y)
 {
  C++ CODE IMPLEMENTATION 
  .... 
  MPI_SEND(A[x][0], A[x][1], A[x][2], Destination= 1.....)
  MPI_RECEIVE(B[0][0], B[0][1]......Sender = 1.....)
  MPI_BARRIER
}

if (myrank == 1)
{
for (i = x+1 to xx)
for (y = 0 to y)
{
 C++ CODE IMPLEMENTATION
 ....
 MPI_SEND(B[x][0], B[x][1], B[x][2], Destination= 0.....)
 MPI_RECEIVE(A[0][0], A[0][1]......Sender = 1.....)
 MPI BARRIER
}

Я хотел знать, правильный ли мой подход, и также хотел бы, чтобы любые рекомендации по другим функциям MPI также учитывали реализацию.

Спасибо, Ashwin.

4b9b3361

Ответ 1

Просто, чтобы усилить точки Джоэля:

Это намного проще, если вы распределите свои массивы так, чтобы они были смежными (что-то C "многомерные массивы" не дают вам автоматически:)

int **alloc_2d_int(int rows, int cols) {
    int *data = (int *)malloc(rows*cols*sizeof(int));
    int **array= (int **)malloc(rows*sizeof(int*));
    for (int i=0; i<rows; i++)
        array[i] = &(data[cols*i]);

    return array;
}

/*...*/
int **A;
/*...*/
A = alloc_2d_init(N,M);

Затем вы можете отправлять и получать весь массив NxM с помощью

MPI_Send(&(A[0][0]), N*M, MPI_INT, destination, tag, MPI_COMM_WORLD);

и когда вы закончите, освободите память с помощью

free(A[0]);
free(A);

Кроме того, MPI_Recv - это получение блокировки, а MPI_Send может быть блокировкой отправки. Одна вещь, которая означает, по мнению Джоэла, состоит в том, что вам определенно не нужны барьеры. Кроме того, это означает, что если у вас есть шаблон отправки/получения, как указано выше, вы можете попасть в тупик - все отправляются, никто не получает. Безопаснее:

if (myrank == 0) {
   MPI_Send(&(A[0][0]), N*M, MPI_INT, 1, tagA, MPI_COMM_WORLD);
   MPI_Recv(&(B[0][0]), N*M, MPI_INT, 1, tagB, MPI_COMM_WORLD, &status);
} else if (myrank == 1) {
   MPI_Recv(&(A[0][0]), N*M, MPI_INT, 0, tagA, MPI_COMM_WORLD, &status);
   MPI_Send(&(B[0][0]), N*M, MPI_INT, 0, tagB, MPI_COMM_WORLD);
}

Другой, более общий подход - использовать MPI_Sendrecv:

int *sendptr, *recvptr;
int neigh = MPI_PROC_NULL;

if (myrank == 0) {
   sendptr = &(A[0][0]);
   recvptr = &(B[0][0]);
   neigh = 1;
} else {
   sendptr = &(B[0][0]);
   recvptr = &(A[0][0]);
   neigh = 0;
}
MPI_Sendrecv(sendptr, N*M, MPI_INT, neigh, tagA, recvptr, N*M, MPI_INT, neigh, tagB, MPI_COMM_WORLD, &status);

или неблокировать отправку и/или получение.

Ответ 2

Сначала вам не нужен такой барьер Во-вторых, вы действительно должны отправлять свои данные в виде одного блока, так как множественные блокировки отправки/получения могут привести к плохим результатам.