安裝OPENMPI
由于是實驗,也不進行多機的配置了,只在虛擬機里安裝吧。多個機器的配置可以參考此文
最簡單的方法,apt安裝
sudo apt-get install libcr-dev mpich2 mpich2-doc
測試
hello.c
/* C Example */#include <mpi.h>#include <stdio.h>int main (int argc, char* argv[]){ int rank, size; MPI_Init (&argc, &argv); /* starts MPI */ MPI_Comm_rank (MPI_COMM_WORLD, &rank); /* get current process id */ MPI_Comm_size (MPI_COMM_WORLD, &size); /* get number of processes */ printf( "Hello world from process %d of %d/n", rank, size ); MPI_Finalize(); return 0;}
編譯運行及顯示結果
mpicc mpi_hello.c -o hellompirun -np 2 ./helloHello world from process 0 of 2Hello world from process 1 of 2
正常出現結果表明沒有問題,
看下openmpi的版本
mpirun --version
mpirun (Open MPI) 1.6.5Report bugs to http://www.open-mpi.org/community/help/
MPI計算矩陣乘法
通過opemMPI加速矩陣乘法運算。采用主從模式,0號是master,其他是child(或者叫worker,as you wish)。
基本思路
兩個矩陣A,B進行乘法運算,則A的行 i 乘以B的列 j 得出的數是新矩陣(i,j)坐標的數值。A(MN) B(NK)最后矩陣是M*K的,實驗中M=N=K=1000,我也就沒有明確區分MNK,全部用MATRIX_SIZE定義的。
最簡單的思路就是每個worker分配(MATRIX_SIZE/(numprocess-1))個,然后如果有余下的,就分給余數對應的worker。比如MATRIX_SIZE=10,numprocess=4 則實際的worker有3個,每個人分3行,最后的一行給id是1的??梢院芎唵蔚睦醚h類分配。最后Master收集所有的結果,并按照順序組裝起來就行。
每個worker的工作就是接收來自master的一行,和B矩陣運算,得出新一行的結果,然后發送回master
代碼
多加了很多注釋來解釋,函數的說明下一節解釋下。
#include <mpi.h>#include <stdio.h>#define MATRIX_SIZE 10#define FROM_MASTER 1 //這里的類型可以區分消息的種類,以便區分worker發送來的結果#define FROM_CHILD 2 #define MASTER 0MPI_Status status;int myid,numprocess;//最終保存的結果int ans [MATRIX_SIZE*MATRIX_SIZE];int A[MATRIX_SIZE*MATRIX_SIZE],B[MATRIX_SIZE*MATRIX_SIZE];//讀取文件,注意讀取文件要放在master里,不然會讀兩遍,出現錯誤void readFile(){ FILE* fina,*finb; fina=fopen("a.txt","r"); int i; for (i = 0; i < MATRIX_SIZE*MATRIX_SIZE ; ++i) { fscanf(fina,"%d ",&A[i]); } fclose(fina); finb=fopen("b.txt","r"); for(i=0;i<MATRIX_SIZE*MATRIX_SIZE;i++) fscanf(finb,"%d ",&B[i]); fclose(finb); printf("read file ok/n");}int master(){ int workid,dest,i,j; printf("numprocess %d/n",numprocess ); //給每個worker發送B矩陣過去 for(i=0;i<numprocess-1;i++){ //send B matrix MPI_Send(&B,MATRIX_SIZE*MATRIX_SIZE,MPI_INT,i+1,FROM_MASTER,MPI_COMM_WORLD); } //開始給每個worker分配任務,取模即可 for (i = 0; i < MATRIX_SIZE; i++) { //attention: num of workers is numprocess-1 workid=i%(numprocess-1)+1; //send single line in A MPI_Send(&A[i*MATRIX_SIZE],MATRIX_SIZE,MPI_INT,workid,FROM_MASTER,MPI_COMM_WORLD); } //等待從worker發送來的數據 int tempLine[MATRIX_SIZE]; for (i = 0; i < MATRIX_SIZE*MATRIX_SIZE; i++) { ans[i]=0; } for (i = 0; i < MATRIX_SIZE; ++i) { int myprocess=i%(numprocess-1)+1; printf("Master is waiting %d/n",myprocess); //receive every line from every process MPI_Recv(&tempLine,MATRIX_SIZE,MPI_INT,myprocess,FROM_CHILD,MPI_COMM_WORLD,&status); //發送過來的都是計算好了的一行的數據,直接組裝到ans里就行 for(j=0;j<MATRIX_SIZE;j++){ ans[MATRIX_SIZE*i+j]=tempLine[j]; } printf("Master gets %d/n",i); } for(i=0;i<MATRIX_SIZE*MATRIX_SIZE;i++){ printf("%d ",ans[i] ); if(i%MATRIX_SIZE==(MATRIX_SIZE-1))printf("/n"); } printf("The Master is out/n");}int worker(){ int mA[MATRIX_SIZE],mB[MATRIX_SIZE*MATRIX_SIZE],mC[MATRIX_SIZE]; int i,j,bi; MPI_Recv(&mB,MATRIX_SIZE*MATRIX_SIZE,MPI_INT,MASTER,FROM_MASTER,MPI_COMM_WORLD,&status); //接收來自master的A的行 for(i=0;i<MATRIX_SIZE/(numprocess-1);i++){ MPI_Recv(&mA,MATRIX_SIZE,MPI_INT,MASTER,FROM_MASTER,MPI_COMM_WORLD,&status); //矩陣乘法,A 的一行和B矩陣相乘 for(bi=0;bi<MATRIX_SIZE;bi++){ mC[bi]=0; for(j=0;j<MATRIX_SIZE;j++){ mC[bi]+=mA[j]*mB[bi*MATRIX_SIZE+j]; } } MPI_Send(&mC,MATRIX_SIZE,MPI_INT,MASTER,FROM_CHILD,MPI_COMM_WORLD); } //如果處于余數范圍內,則需要多計算一行 if(MATRIX_SIZE%(numprocess-1)!=0){ if (myid<=(MATRIX_SIZE%(numprocess-1))) { MPI_Recv(&mA,MATRIX_SIZE,MPI_INT,MASTER,FROM_MASTER,MPI_COMM_WORLD,&status); for(bi=0;bi<MATRIX_SIZE;bi++){ mC[bi]=0; for(j=0;j<MATRIX_SIZE;j++){ mC[bi]+=mA[j]*mB[bi*MATRIX_SIZE+j]; } } MPI_Send(&mC,MATRIX_SIZE,MPI_INT,MASTER,FROM_CHILD,MPI_COMM_WORLD); } } printf("The worker %d is out/n",myid);}int main(int argc, char **argv){ MPI_Init (&argc, &argv); MPI_Comm_rank(MPI_COMM_WORLD,&myid); MPI_Comm_size(MPI_COMM_WORLD,&numprocess); if(myid==MASTER){ readFile(); master(); } if(myid>MASTER){ worker(); } MPI_Finalize(); return 0;}
OPENMPI簡單函數介紹
針對實驗用到的幾個函數進行說明。
MPI為程序員提供一個并行環境庫,程序員通過調用MPI的庫程序來達到程序員所要達到的并行目的,可以只使用其中的6個最基本的函數就能編寫一個完整的MPI程序去求解很多問題。這6個基本函數,包括啟動和結束MPI環境,識別進程以及發送和接收消息:
理論上說,MPI所有的通信功能可以用它的六個基本的調用來實現:
初始化和結束
MPI初始化:通過MPI_Init函數進入MPI環境并完成所有的初始化工作。
int MPI_Init( int *argc, char * * * argv )
MPI結束:通過MPI_Finalize函數從MPI環境中退出。
int MPI_Finalize(void)
獲取進程的編號
調用MPI_Comm_rank函數獲得當前進程在指定通信域中的編號,將自身與其他程序區分。
int MPI_Comm_rank(MPI_Comm comm, int *rank)
獲取指定通信域的進程數
調用MPI_Comm_size函數獲取指定通信域的進程個數,確定自身完成任務比例。
int MPI_Comm_size(MPI_Comm comm, int *size)
MPI消息
一個消息好比一封信
消息的內容的內容即信的內容,在MPI中成為消息緩沖(Message Buffer)
消息的接收發送者即信的地址,在MPI中成為消息封裝(Message Envelop)
MPI中,消息緩沖由三元組<起始地址,數據個數,數據類型>標識
消息信封由三元組<源/目標進程,消息標簽,通信域>標識
消息發送
MPI_Send函數用于發送一個消息到目標進程。
int MPI_Send(void *buf, int count, MPI_Datatype dataytpe, int dest, int tag, MPI_Comm comm)
buf是要發送數據的指針,比如一個A數組,可以直接&A,count則是數據長度,datatype都要改成MPI的type。dest就是worker的id了。tag則可以通過不同的type來區分消息類型,比如是master發送的還是worker發送的。
消息接收
MPI_Recv函數用于從指定進程接收一個消息
int MPI_Recv(void *buf, int count, MPI_Datatype datatyepe,int source, int tag, MPI_Comm comm, MPI_Status *status)
編譯和執行
生成執行文件data
mpicc -o programname programname.c
一個MPI并行程序由若干個并發進程組成,這些進程可以相同也可以不同。MPI只支持靜態進程創建,即:每個進程在執行前必須在MPI環境中登記,且它們必須一起啟動。通常啟動可執行的MPI程序是通過命令行來實現的。啟動方法由具體實現確定。例如在MPICH實現中通過下列命令行可同時在獨立的機器上啟動相同的可執行程序:
mpirun 亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb 2025国产精品视频| 色先锋资源久久综合5566| 欧美成人精品一区二区| 欧美精品性视频| 精品国产999| 欧美黄色小视频| 97视频com| 精品国产一区二区三区在线观看| 97视频在线观看免费高清完整版在线观看| 中文字幕国产精品| 人妖精品videosex性欧美| 久久久免费精品视频| 久久久久久国产三级电影| 国产日韩欧美日韩| 中文字幕在线看视频国产欧美在线看完整| 国内精品一区二区三区| 欧美精品在线网站| 在线日韩av观看| 国产精品日韩欧美| 国产精品福利无圣光在线一区| 亚洲综合自拍一区| 精品福利在线观看| 中文字幕少妇一区二区三区| 亚洲一区二区三区成人在线视频精品| 姬川优奈aav一区二区| 亚洲偷欧美偷国内偷| 日韩少妇与小伙激情| 欧美性猛交xxxx久久久| 97视频免费观看| 欧美电影在线观看网站| 亚洲最大激情中文字幕| 日本精品免费一区二区三区| 日韩大片在线观看视频| 成人午夜黄色影院| 国产成人久久久精品一区| 欧美性受xxxx白人性爽| 日韩久久精品成人| 亚洲人成网站在线播| 一本大道亚洲视频| 久久男人的天堂| 亚洲国产精品va在线| 国产精品视频区| 国产精品视频xxxx| 欧美风情在线观看| 成人啪啪免费看| 久久久久这里只有精品| 亚洲一级一级97网| 亚洲综合日韩在线| 在线观看精品国产视频| 亚洲999一在线观看www| 欧美日韩国产一中文字不卡| 中文字幕亚洲综合久久筱田步美| 91av在线网站| 日韩美女av在线免费观看| 国产原创欧美精品| 九九热这里只有精品6| 亚洲国产成人久久综合一区| 九九热在线精品视频| 欧美成人第一页| 97在线视频免费观看| 亚洲aⅴ男人的天堂在线观看| 精品福利视频导航| 亚洲精品电影在线观看| 亚洲v日韩v综合v精品v| 亚洲精品国产品国语在线| 久久九九精品99国产精品| 久久久久亚洲精品国产| 久久精品国产一区二区电影| 91人人爽人人爽人人精88v| 欧美疯狂xxxx大交乱88av| 欧美美最猛性xxxxxx| 亚洲精品乱码久久久久久按摩观| 欧美午夜激情小视频| 久久九九精品99国产精品| 亚洲最新av在线网站| 亚洲自拍欧美色图| 一本一道久久a久久精品逆3p| 久久91亚洲人成电影网站| 亚洲天堂免费视频| 91精品国产综合久久香蕉| 欧美美最猛性xxxxxx| 日韩欧美国产免费播放| 狠狠爱在线视频一区| 国产在线视频2019最新视频| 精品五月天久久| 亚洲精品久久在线| 色综合视频网站| 欧美成人精品一区| 亚洲精品国产suv| 中日韩美女免费视频网址在线观看| 91精品国产自产在线观看永久| 欧美色另类天堂2015| 国产精品第10页| 久久久亚洲欧洲日产国码aⅴ| 国产欧美精品一区二区三区介绍| 91精品综合久久久久久五月天| 欧美国产视频日韩| 久久精品国产免费观看| 人人澡人人澡人人看欧美| 日韩欧亚中文在线| 欧美诱惑福利视频| 成人亚洲欧美一区二区三区| 午夜精品一区二区三区av| 亚洲美女福利视频网站| 欧美中文在线字幕| 亚洲综合日韩中文字幕v在线| 亚洲一区美女视频在线观看免费| 日韩精品中文在线观看| 91经典在线视频| 欧美韩日一区二区| 欧美壮男野外gaytube| 欧美性猛交xxxx富婆| 国产精品男女猛烈高潮激情| 国产亚洲人成a一在线v站| 欧美一级视频在线观看| 欧美日韩激情小视频| 日韩欧美成人区| 国产精品扒开腿做| 国产精品电影观看| 亚洲国模精品私拍| 黄色一区二区在线| 国产精品大陆在线观看| 日韩欧美国产高清91| 国产精品第一第二| 日韩av在线资源| 色综合久久久888| 日韩福利视频在线观看| 久久精品人人做人人爽| 亚洲综合av影视| 国产欧美日韩精品丝袜高跟鞋| 欧美亚洲视频一区二区| 欧美性videos高清精品| 色噜噜亚洲精品中文字幕| 久久精品男人天堂| 亚洲va欧美va国产综合久久| 欧美国产日本高清在线| 日韩av电影手机在线观看| 国产精品专区第二| 欧美夜福利tv在线| 国产精品v日韩精品| 91性高湖久久久久久久久_久久99| 国产精品∨欧美精品v日韩精品| 国产精品视频一| 大胆欧美人体视频| 久久av在线播放| 亚洲国产欧美一区| 成人自拍性视频| 精品亚洲夜色av98在线观看| 91精品视频免费观看| 亚洲成人激情小说| 欧美黄色片在线观看| 欧美另类在线播放| 亚洲精品一区二区三区不| 91免费综合在线| 国产一区二区三区视频| 亚洲欧美日韩精品久久亚洲区| 久久久久久久久久久成人| 亚洲大胆人体视频| 亚洲国产精久久久久久久| 91久久国产精品91久久性色| 日本三级久久久| 欧美日韩在线免费| 久久久99久久精品女同性| 国产91精品久|