首页 > 其他 > 详细

使用MPI_Sendrecv实现MPI_Allgather

时间:2018-08-15 12:27:19      阅读:331      评论:0      收藏:0      [点我收藏+]

MPI_Allgather函数的作用是从所有进程收集数据并将收集的数据分发到所有进程。其优点是在通信过程中,不必考虑哪个进程先发送还是先接收消息,从而可以避免消息传递过程中的死锁:

技术分享图片
 1 int main(int argc, char *argv[])
 2 {
 3     int rank, size;
 4     MPI_Status status;
 5     int S[20], R[20];
 6     int i;
 7 
 8     MPI_Init(&argc, &argv);
 9     MPI_Comm_rank(MPI_COMM_WORLD, &rank);
10     MPI_Comm_size(MPI_COMM_WORLD, &size);
11 
12     for (i = 0; i<20; i++)
13     {
14         S[i] = (rank + 1)*(i + 1);
15         R[i] = 0;
16     }
17     for (i = 0; i<size; i++){
18             MPI_Sendrecv(S, 4, MPI_INT, i, 123, &R[i*4], 4, MPI_INT, i, 123, MPI_COMM_WORLD, &status);
19     }
20 
21     MPI_Barrier(MPI_COMM_WORLD);
22     cout << "the data on proc " << rank << " is " ;
23     for (int i = 0; i < 20; i++) {
24         cout << R[i] << " ";
25     }
26     MPI_Barrier(MPI_COMM_WORLD);
27     MPI_Finalize();
28     return 1;
29 }
View Code

需要注意的是:发送缓冲区和接收缓冲区不能相同。

 

使用MPI_Sendrecv实现MPI_Allgather

原文:https://www.cnblogs.com/hati/p/9480558.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!