logo

Crowdly

Algorithmes pour le calcul parallèle

Looking for Algorithmes pour le calcul parallèle test answers and solutions? Browse our comprehensive collection of verified answers for Algorithmes pour le calcul parallèle at moodle2024.uca.fr.

Get instant access to accurate answers and detailed explanations for your course questions. Our community-driven platform helps students succeed!

Dans la parallélisation de la méthode de Jacobi appliquée à l'équation de chaleur vue en cours, quel type de décomposition est susceptible d'être plus performante ?

0%
0%
100%
0%
View this question

Soit monProg l'exécutable du programme suivant, et on l'exécute avec la commande mpirun -np 5  ./monProg. Donner l'espace mémoire occupé en nombre d'octets par Vect dans cette exécution en supposant qu'un int occupe 4 octets.

#include "mpi.h"

int main(int argc, char **argv) {

    int rang = -1, Vect[12]={0};

    MPI_Init( &argc, &argv );

    MPI_Comm_rank(MPI_COMM_WORLD, &rang);

    MPI_Finalize();

    return 0;

}

View this question

En MPI, la communication point-à-point s'effectue entre :

0%
100%
0%
0%
View this question

Corriger les erreurs du programme suivant :

  1. #include <stdio.h>
  2.  
  3. int main(int argc, char **argv){
  4.     int myRank, nbProcs;
  5.  
  6.     MPI_Comm_rank( MPI_COMM_WORLD, &myRank );
  7.     MPI_Comm_size( MPI_COMM_WORLD, &nbProcs);
  8.  
  9.     printf( " Hello from proc. %d/%d\n ", myRank, nbProcs);
  10.     MPI_Finalize();
  11.  
  12.     return 0;
  13. }
View this question

La mesure du temps d'exécution avec la commande "mpirun -np 16 ./myprog" du programme suivant est-elle correcte ?

  1. #include <stdio.h>
  2. #include "mpi.h"
  3.  
  4. int main(int argc, int **argv) {
  5.     int myRank, nbProcs;
  6.     double start, execTime;
  7.  
  8.     MPI_init(&argc, &argv);
  9.     start = MPI_Wtime();
  10.     ……
  11.     execTime = MPI_Wtime()- start;
  12.     printf("Le temps d'execution du programme parallele est %lf\n", execTime);
  13.  
  14.     MPI_Finalize();
  15.     return 0;
  16. }
View this question

Quel est le nombre de processus du communicateur "comm" après les lignes de code suivantes:

// on suppose toutes les variables déclarées

dim[0] = 4; dim[1] = 3;

period[0] = 1; period[1] = 0;

reorder = 1;

MPI_Cart_create(MPI_COMM_WORLD,2,dim,period,reorder, &comm); 

0%
0%
0%
100%
View this question

Quelle est la topologie MPI après les lignes de code suivantes:

dim[0] = 4; dim[1] = 4;

period[0] = 1; period[1] = 0;

reorder = 1;

MPI_Cart_create(MPI_COMM_WORLD, 2, dim, period, reorder, &comm);

0%
0%
0%
100%
View this question

Dans le bout de code MPI suivant, le schéma de communication s'exécute correctement pour 4 processus, vrai ou faux ?

// on suppose toutes las variables correctement déclarées

MPI_init(&argc, &argv);

MPI_Comm_rank(MPI_COMM_WORLD, &myRank);

...

if (myRank == 0){

    scanf("%d",&n);

   MPI_Bcast(&n,1,MPI_INT,0,MPI_COMM_WORLD);

}

else {

MPI_Recv(&n,1,MPI_INT,0,tag,MPI_COMM_WORLD,&status);

}

...

View this question

La commande suivante lance le programme ./myprog

mpiexec  -hosts  turing,ada -np 8 ./myprog

50%
0%
50%
View this question

Parmi les affirmations suivantes, choisir celle/celles qui convient/conviennent

75%
0%
100%
View this question

Want instant access to all verified answers on moodle2024.uca.fr?

Get Unlimited Answers To Exam Questions - Install Crowdly Extension Now!