這篇文章主要介紹了安裝OpenMPI來配合C語言程序進行并行計算的例子,MPI的全稱是Message Passing Interface即標準消息傳遞界面,可以用于并行計算,需要的朋友可以參考下
安裝OPENMPI
由于是實驗,也不進行多機的配置了,只在虛擬機里安裝吧。多個機器的配置可以參考此文
最簡單的方法,apt安裝
- sudo apt-get install libcr-dev mpich2 mpich2-doc
測試
hello.c
- /* C Example */
- #include <mpi.h>
- #include <stdio.h>
- int main (int argc, char* argv[])
- {
- int rank, size;
- MPI_Init (&argc, &argv); /* starts MPI */
- MPI_Comm_rank (MPI_COMM_WORLD, &rank); /* get current process id */
- MPI_Comm_size (MPI_COMM_WORLD, &size); /* get number of processes */
- printf( "Hello world from process %d of %d/n", rank, size );
- MPI_Finalize();
- return 0;
- }
編譯運行及顯示結果
- mpicc mpi_hello.c -o hello
- mpirun -np 2 ./hello
- Hello world from process 0 of 2
- Hello world from process 1 of 2
正常出現結果表明沒有問題,
看下openmpi的版本
- mpirun --version
- mpirun (Open MPI) 1.6.5
- Report bugs to http://www.open-mpi.org/community/help/
MPI計算矩陣乘法
通過opemMPI加速矩陣乘法運算。采用主從模式,0號是master,其他是child(或者叫worker,as you wish)。
基本思路
兩個矩陣A,B進行乘法運算,則A的行 i 乘以B的列 j 得出的數是新矩陣(i,j)坐標的數值。A(MN) B(NK)最后矩陣是M*K的,實驗中M=N=K=1000,我也就沒有明確區分MNK,全部用MATRIX_SIZE定義的。
最簡單的思路就是每個worker分配(MATRIX_SIZE/(numprocess-1))個,然后如果有余下的,就分給余數對應的worker。比如MATRIX_SIZE=10,numprocess=4 則實際的worker有3個,每個人分3行,最后的一行給id是1的??梢院芎唵蔚睦醚h類分配。最后Master收集所有的結果,并按照順序組裝起來就行。
每個worker的工作就是接收來自master的一行,和B矩陣運算,得出新一行的結果,然后發送回master
代碼
多加了很多注釋來解釋,函數的說明下一節解釋下。
- #include <mpi.h>
- #include <stdio.h>
- #define MATRIX_SIZE 10
- #define FROM_MASTER 1 //這里的類型可以區分消息的種類,以便區分worker發送來的結果
- #define FROM_CHILD 2
- #define MASTER 0
- MPI_Status status;
- int myid,numprocess;
- //最終保存的結果
- int ans [MATRIX_SIZE*MATRIX_SIZE];
- int A[MATRIX_SIZE*MATRIX_SIZE],B[MATRIX_SIZE*MATRIX_SIZE];
- //讀取文件,注意讀取文件要放在master里,不然會讀兩遍,出現錯誤
- void readFile(){
- FILE* fina,*finb;
- fina=fopen("a.txt","r");
- int i;
- for (i = 0; i < MATRIX_SIZE*MATRIX_SIZE ; ++i)
- {
- fscanf(fina,"%d ",&A[i]);
- }
- fclose(fina);
- finb=fopen("b.txt","r");
- for(i=0;i<MATRIX_SIZE*MATRIX_SIZE;i++)
- fscanf(finb,"%d ",&B[i]);
- fclose(finb);
- printf("read file ok/n");
- }
- int master(){
- int workid,dest,i,j;
- printf("numprocess %d/n",numprocess );
- //給每個worker發送B矩陣過去
- for(i=0;i<numprocess-1;i++){
- //send B matrix
- MPI_Send(&B,MATRIX_SIZE*MATRIX_SIZE,MPI_INT,i+1,FROM_MASTER,MPI_COMM_WORLD);
- }
- //開始給每個worker分配任務,取模即可
- for (i = 0; i < MATRIX_SIZE; i++)
- {
- //attention: num of workers is numprocess-1
- workid=i%(numprocess-1)+1;
- //send single line in A
- MPI_Send(&A[i*MATRIX_SIZE],MATRIX_SIZE,MPI_INT,workid,FROM_MASTER,MPI_COMM_WORLD);
- }
- //等待從worker發送來的數據
- int tempLine[MATRIX_SIZE];
- for (i = 0; i < MATRIX_SIZE*MATRIX_SIZE; i++)
- {
- ans[i]=0;
- }
- for (i = 0; i < MATRIX_SIZE; ++i)
- {
- int myprocess=i%(numprocess-1)+1;
- printf("Master is waiting %d/n",myprocess);
- //receive every line from every process
- MPI_Recv(&tempLine,MATRIX_SIZE,MPI_INT,myprocess,FROM_CHILD,MPI_COMM_WORLD,&status);
- //發送過來的都是計算好了的一行的數據,直接組裝到ans里就行
- for(j=0;j<MATRIX_SIZE;j++){
- ans[MATRIX_SIZE*i+j]=tempLine[j];
- }
- printf("Master gets %d/n",i);
- }
- for(i=0;i<MATRIX_SIZE*MATRIX_SIZE;i++){
- printf("%d ",ans[i] );
- if(i%MATRIX_SIZE==(MATRIX_SIZE-1))printf("/n");
- }
- printf("The Master is out/n");
- }
- int worker(){
- int mA[MATRIX_SIZE],mB[MATRIX_SIZE*MATRIX_SIZE],mC[MATRIX_SIZE];
- int i,j,bi;
- MPI_Recv(&mB,MATRIX_SIZE*MATRIX_SIZE,MPI_INT,MASTER,FROM_MASTER,MPI_COMM_WORLD,&status);
- //接收來自master的A的行
- for(i=0;i<MATRIX_SIZE/(numprocess-1);i++){
- MPI_Recv(&mA,MATRIX_SIZE,MPI_INT,MASTER,FROM_MASTER,MPI_COMM_WORLD,&status);
- //矩陣乘法,A 的一行和B矩陣相乘
- for(bi=0;bi<MATRIX_SIZE;bi++){
- mC[bi]=0;
- for(j=0;j<MATRIX_SIZE;j++){
- mC[bi]+=mA[j]*mB[bi*MATRIX_SIZE+j];
- }
- }
- MPI_Send(&mC,MATRIX_SIZE,MPI_INT,MASTER,FROM_CHILD,MPI_COMM_WORLD);
- }
- //如果處于余數范圍內,則需要多計算一行
- if(MATRIX_SIZE%(numprocess-1)!=0){
- if (myid<=(MATRIX_SIZE%(numprocess-1)))
- {
- MPI_Recv(&mA,MATRIX_SIZE,MPI_INT,MASTER,FROM_MASTER,MPI_COMM_WORLD,&status);
- for(bi=0;bi<MATRIX_SIZE;bi++){
- mC[bi]=0;
- for(j=0;j<MATRIX_SIZE;j++){
- mC[bi]+=mA[j]*mB[bi*MATRIX_SIZE+j];
- }
- }
- MPI_Send(&mC,MATRIX_SIZE,MPI_INT,MASTER,FROM_CHILD,MPI_COMM_WORLD);
- }
- }
- printf("The worker %d is out/n",myid);
- }
- int main(int argc, char **argv)
- {
- MPI_Init (&argc, &argv);
- MPI_Comm_rank(MPI_COMM_WORLD,&myid);
- MPI_Comm_size(MPI_COMM_WORLD,&numprocess);
- if(myid==MASTER){
- readFile();
- master();
- }
- if(myid>MASTER){
- worker();
- }
- MPI_Finalize();
- return 0;
- }
OPENMPI簡單函數介紹
針對實驗用到的幾個函數進行說明。
MPI為程序員提供一個并行環境庫,程序員通過調用MPI的庫程序來達到程序員所要達到的并行目的,可以只使用其中的6個最基本的函數就能編寫一個完整的MPI程序去求解很多問題。這6個基本函數,包括啟動和結束MPI環境,識別進程以及發送和接收消息:
理論上說,MPI所有的通信功能可以用它的六個基本的調用來實現:
MPI_INIT 啟動MPI環境
MPI_COMM_SIZE 確定進程數
MPI_COMM_RANK 確定自己的進程標識符
MPI_SEND 發送一條消息
MPI_RECV 接收一條消息
MPI_FINALIZE 結束MPI環境
初始化和結束
MPI初始化:通過MPI_Init函數進入MPI環境并完成所有的初始化工作。
- int MPI_Init( int *argc, char * * * argv )
MPI結束:通過MPI_Finalize函數從MPI環境中退出。
- int MPI_Finalize(void)
獲取進程的編號
調用MPI_Comm_rank函數獲得當前進程在指定通信域中的編號,將自身與其他程序區分。
- int MPI_Comm_rank(MPI_Comm comm, int *rank)
獲取指定通信域的進程數
調用MPI_Comm_size函數獲取指定通信域的進程個數,確定自身完成任務比例。
- int MPI_Comm_size(MPI_Comm comm, int *size)
MPI消息
一個消息好比一封信
消息的內容的內容即信的內容,在MPI中成為消息緩沖(Message Buffer)
消息的接收發送者即信的地址,在MPI中成為消息封裝(Message Envelop)
MPI中,消息緩沖由三元組<起始地址,數據個數,數據類型>標識
消息信封由三元組<源/目標進程,消息標簽,通信域>標識
消息發送
MPI_Send函數用于發送一個消息到目標進程。
- int MPI_Send(void *buf, int count, MPI_Datatype dataytpe, int dest, int tag, MPI_Comm comm)
buf是要發送數據的指針,比如一個A數組,可以直接&A,count則是數據長度,datatype都要改成MPI的type。dest就是worker的id了。tag則可以通過不同的type來區分消息類型,比如是master發送的還是worker發送的。
消息接收
MPI_Recv函數用于從指定進程接收一個消息
- int MPI_Recv(void *buf, int count, MPI_Datatype datatyepe,int source, int tag, MPI_Comm comm, MPI_Status *status)
編譯和執行
生成執行文件data
- mpicc -o programname programname.c
一個MPI并行程序由若干個并發進程組成,這些進程可以相同也可以不同。MPI只支持靜態進程創建,即:每個進程在執行前必須在MPI環境中登記,且它們必須一起啟動。通常啟動可執行的MPI程序是通過命令行來實現的。啟動方法由具體實現確定。例如在MPICH實現中通過下列命令行可同時在獨立的機器上啟動相同的可執行程序:
- mpirun –np N programname
其中N是同時運行的進程的個數,programname是可執行的MPI程序的程序名。
新聞熱點
疑難解答