「Message Passing Interface」の版間の差分
TAKAHASHI Shuuji (会話 | 投稿記録) 「MPICH」を翻訳したのでWikify。 |
TAKAHASHI Shuuji (会話 | 投稿記録) m wifilyや日本語表記の改善。 |
||
1行目: | 1行目: | ||
'''Message Passing Interface''' |
'''Message Passing Interface'''(メッセージ パッシング インターフェース、'''MPI''')とは、[[並列コンピューティング]]利用するための標準化された規格である。実装自体を指すこともある。 |
||
[[並列コンピューティング]]利用するための標準化された規格である。実装自体を指すこともある。 |
|||
複数のCPUが情報をバイト列からなるメッセージとして送受信することで協調動作を行えるようにする。自由に使用できる実装としては[[MPICH]]が有名である。他にも商用ベンダなどによる独自の実装が存在する。 |
複数のCPUが情報をバイト列からなるメッセージとして送受信することで協調動作を行えるようにする。自由に使用できる実装としては[[MPICH]]が有名である。他にも商用ベンダなどによる独自の実装が存在する。 |
||
9行目: | 8行目: | ||
== 歴史 == |
== 歴史 == |
||
MPIへの取り組みは1991年夏にオーストリアの山荘での、小規模な研究者のグループのディスカッションから始まった。その議論は、翌1992年4月29-30日のバージニア州ウィリアムズバーグで、分散メモリ環境のためのメッセージパッシング規格の標準化についてのワークショップに引き継がれた。このワークショップでは標準的なメッセージパッシングインタフェースに必須となるであろう基本的な機能について議論され、標準化に向けてワーキンググループが設立された。[[ジャック・ドンガラ]]、Rolf Hempel、Tony Hey、David W. Walkerは1992年11月にドラフトを提案し、これがMPI1となった。1992年11月にはMPIワーキンググループの会議がミネアポリスで行われ、そこで標準化プロセスをより公式な仕組みに乗せることが決められた。MPIワーキンググループは1993年の最初の9ヶ月間は6週ごとにミーティングを行った。MPIのドラフトの標準規格は1993年11月の[[Supercomputing Conference|スーパーコンピューティング・カンファレンス]]で発表された。パブリックコメントの期間を経て、その内容がMPIに反映され、1994年6月にMPI version 1.0がリリースされた。これらのミーティングとE-mailでの議論がMPIフォーラムそのものであり、このフォーラムへの参加の権利はハイパフォーマンスコンピューティング関係者の人たち全員に開かれている。 |
|||
MPIへの取り組みは1991年夏にオーストリアの山荘での、小規模な研究者のグループのディスカッションから始まった。 |
|||
その議論は、翌1992年4月29-30日のバージニア州ウィリアムズバーグで、分散メモリ環境のためのメッセージパッシング規格の標準化についてのワークショップに引き継がれた。このワークショップでは標準的なメッセージパッシングインタフェースに必須となるであろう基本的な機能について議論され、標準化に向けてワーキンググループが設立された。[[ジャック・ドンガラ]]、 |
|||
Rolf Hempel、 Tony Hey、David W. Walkerは1992年11月にドラフトを提案し、これがMPI1となった。1992年11月にはMPIワーキンググループの会議がミネアポリスで行われ、そこで標準化プロセスをより公式な仕組みに乗せることが決められた。 |
|||
MPIワーキンググループは1993年の最初の9ヶ月間は6週ごとにミーティングを行った。 |
|||
MPIのドラフトの標準規格は1993年11月のスーパーコンピューティングカンファレンスで発表された。 |
|||
パブリックコメントの期間を経て、その内容がMPIに反映され、1994年6月にMPI version 1.0がリリースされた。 |
|||
これらのミーティングとE-mailでの議論がMPIフォーラムそのものであり、このフォーラムへの参加の権利は |
|||
ハイパフォーマンスコンピューティング関係者の人たち全員に開かれている。 |
|||
この頃MPIに対しては欧米の組織を中心に40の組織から約80人の人々が |
この頃MPIに対しては欧米の組織を中心に40の組織から約80人の人々が関与していた。大手の並列計算のメーカーの多くが参加していたほか、大学や政府の研究機関や、その他の企業からも研究者が参加していた。 |
||
関与していた。大手の並列計算のメーカーの多くが参加していたほか、 |
|||
大学や政府の研究機関や、その他の企業からも研究者が参加していた。 |
|||
⚫ | |||
MPIの標準ではコアライブラリのシンタックス(文法)とセマンティクス(手続き的なもの)を |
|||
定義することによって、FortranやCで移植可能なメッセージ |
|||
⚫ | |||
MPIは基本的なルーチン群の仕様を明確に定義して並列計算機のメーカーに対して公開しているので、彼らはそれに基づいて効率的に実装を進めることができる。その結果、各メーカーは自社製品のマシンに低レベルのMPI標準に準拠したルーチン群の実装を搭載し、さらにその上に高次の分散メモリ通信環境のルーチンを乗せることができる。MPIは単純かつ基本的で移植可能なプログラムを書くことも可能である一方で、ハイパフォーマンスなメッセージパッシングを先進的な計算機の上で行うようなプログラミングも可能である。 |
|||
MPIは基本的なルーチン群の仕様を明確に定義して並列計算機のメーカーに対して公開しているので、 |
|||
彼らはそれに基づいて効率的に実装を進めることができる。その結果、各メーカーは |
|||
自社製品のマシンに低レベルのMPI標準に準拠したルーチン群の実装を搭載し、 |
|||
さらにその上に高次の分散メモリ通信環境のルーチンを乗せることができる。 |
|||
MPIは単純かつ基本的で移植可能なプログラムを書くことも可能である一方で、 |
|||
ハイパフォーマンスなメッセージパッシングを先進的な計算機の上で |
|||
行うようなプログラミングも可能である。 |
|||
メッセージパッシングの本当の意味での標準を目指そうという考え方に従って、MPIではどれかの製品の機能を標準に採用するというやり方ではなく、いくつかのシステムから最も有用な機能をMPI取り込むというやり方が取られている。各機能はIBM由来、インテル由来、nCUBE由来、PVM由来、Express由来、P4由来、PARMACS由来のものがある。メッセージパッシングという手法が人気があるのは広い移植性と、分散メモリや共有メモリでのマルチプロセッサによる処理、ワークステーションをネットワークで接続したものやそれらすべてのような複合的な環境に対して適用可能なためである。この手法は、様々の構成や、ネットワークの速度、メモリアーキテクチャーに依存せず適用できる。 |
|||
メッセージパッシングの本当の意味での標準を目指そうという考え方に従って、 |
|||
MPIではどれかの製品の機能を標準に採用するというやり方ではなく、 |
|||
いくつかのシステムから最も有用な機能をMPI取り込むというやり方が |
|||
取られている。各機能はIBM由来、インテル由来、nCUBE由来、PVM由来、 |
|||
Express由来、P4由来、PARMACS由来のものがある。 |
|||
メッセージパッシングという手法が人気があるのは広い移植性と、分散メモリや |
|||
共有メモリでのマルチプロセッサによる処理、ワークステーションをネットワークで |
|||
接続したものやそれらすべてのような複合的な環境に対して適用可能なためである。 |
|||
この手法は、様々の構成や、ネットワークの速度、メモリアーキテクチャーに依存せず |
|||
適用できる。 |
|||
MPIは、[[ARPA]]と[[アメリカ国立科学財団]]のグラントASC-9310330、NSF Science and Technology Center Cooperative agreement number CCR-8809615、ヨーロッパではEsprit Project P6643から活動資金を供給されているほか、[[テネシー大学]]はMPIフォーラムを資金的に支えている。 |
|||
MPIは、ARPAと米国 National Science Foundationのグラント ASC-9310330、 |
|||
NSF Science and Technology Center Cooperative agreement number CCR-8809615、 |
|||
ヨーロッパではEsprit Project P6643から活動資金を供給されているほか、 |
|||
University of TennesseeはMPIフォーラムを資金的に支えている。 |
|||
== 概要 == |
== 概要 == |
||
MPIはプログラミング言語とは独立の通信プロトコルで、並列計算機上で動くプログラムに使用される。通信はPoint-to-Pointとグループ通信(Collective communication)の両方がサポートされている。MPIは「メッセージパッシングアプリケーションのためのプログラミングインタフェースで、プロトコルとセマンティクスを定義することで、全ての実装においてその機能がどう振る舞うべきかを仕様として定めている」MPIのゴールはハイパフォーマンス、スケーラビリティ、移植性である。MPIは現在でもハイパフォーマンスコンピューティングにおいてはよく用いられる手法である。 |
|||
MPIはプログラミング言語とは独立の通信プロトコルで、並列計算機上で動く |
|||
プログラムに使用される。通信はPoint-to-Pointとグループ通信(Collective communication)の |
|||
両方がサポートされている。 |
|||
MPIは「メッセージパッシングアプリケーションのためのプログラミングインタフェース |
|||
で、プロトコルとセマンティクスを定義することで、全ての実装において |
|||
その機能がどう振る舞うべきかを仕様として定めている」 |
|||
MPIのゴールはハイパフォーマンス、スケーラビリティ、移植性である。 |
|||
MPIは現在でもハイパフォーマンスコンピューティングにおいては |
|||
よく用いられる手法である。 |
|||
MPIは有名な標準の承認を得た規格ではない。しかしMPIは分散メモリ上で動作する並列計算プログラムのプロセス間通信のモデルとしてはデファクトスタンダードとなっている。実際に、コンピュータークラスターのような構成の分散メモリ型スーパーコンピューター用のプログラムではMPIはよく採用される。MPI-1のモデルは共有メモリを一切必要とせず、MPI-2は限定的に分散共有メモリの概念を導入している。にもかかわらず、MPIのプログラムは共有メモリ型の計算機で使用されることもよくある。これは共有メモリ型のプログラミングのモデルに対して、MPI型のモデルの設計の方が[[NUMA]]アーキテクチャーのシステムではメモリアクセスの局所性([[参照の局所性]])などの点で適しているためである。 |
|||
MPIは有名な標準の承認を得た規格ではない。しかしMPIは分散メモリ上で動作する |
|||
並列計算プログラムのプロセス間通信のモデルとしてはデファクトスタンダードと |
|||
なっている。実際に、コンピュータークラスターのような構成の分散メモリ型スーパー |
|||
コンピューター用のプログラムではMPIはよく採用される。 |
|||
MPI-1のモデルは共有メモリを一切必要とせず、MPI-2は限定的に分散共有メモリの |
|||
概念を導入している。にもかかわらず、MPIのプログラムは共有メモリ型の計算機で |
|||
使用されることもよくある。これは共有メモリ型のプログラミングのモデルに |
|||
対して、MPI型のモデルの設計の方が[[NUMA]]アーキテクチャーのシステムでは |
|||
メモリアクセスの局所性([[参照の局所性]])などの点で適しているためである。 |
|||
MPIは[[OSI参照モデル]]にあてはめると5層 |
MPIは[[OSI参照モデル]]の役割にあてはめると、役割としては5層(セッション層)以上に対応すると考えられるが、実際の実装ではソケットとTCP(トランスポート層)を使用しているため、より広い範囲(4 - 7層)をカバーしている。 |
||
役割的にはなるはずだが、 |
|||
実際の実装はソケットとTCP(トランスポート層)を使用しているので、より広い |
|||
範囲(4-7層)をカバーしている。 |
|||
多くのMPIの実装では、C、C++、Fortranから直接呼ぶことのできるいくつかのルーチンを中心として構成されている。そしてC#やJava、Pythonなどの他の言語はCなどで作ったライブラリを介せばMPIを利用できる。MPIがMPI制定以前のメッセージパッシングライブラリよりも優れているのは、移植性とスピードである。MPIはほぼ全ての分散メモリ環境で実装されているので、それらの環境間ではどこへでも移植可能で、各ハードウェアに対して実装されるときに最適化されているので高速に動作する。 |
|||
多くのMPIの実装では、C、C++、Fortranから直接呼ぶことのできるいくつかの |
|||
ルーチンを中心として構成されている。そしてC#やJava、Pythonなどの他の言語は |
|||
C等で作ったライブラリを介せばMPIを利用できる。 |
|||
MPIがMPI制定以前のメッセージパッシングライブラリよりも優れているのは、 |
|||
移植性とスピードである。MPIはほぼ全ての分散メモリ環境で実装されているので、 |
|||
それらの間ではどこへでも移植可能で、各ハードウェアに対して実装されるときに |
|||
最適化されているので高速に動作する。 |
|||
MPIは言語独立の仕様(Language Independent Specifications; LIS)を採用しているため、どのような言語からでも呼び出せる。最初のMPIの標準はANSI CとFortran-77とのバインディングの仕様とLISであった。ドラフトの仕様は1994年のスーパーコンピューティングのカンファレンスで公開され、その後すぐに承認された。2008年のMPI-1.3は128関数から構成され、それがMPI-1のシリーズでは最後とされている。 |
|||
MPIはLanguage Independent Specifications (LIS、言語独立の仕様)を採用しており |
|||
どのような言語からでも呼び出せるようにしている。最初のMPIの標準はANSI CとFortran-77 |
|||
とのバインディングの仕様とLISであった。 |
|||
ドラフトの仕様は1994年のスーパーコンピューティングのカンファレンスで公開され、 |
|||
その後すぐに承認された。2008年のMPI-1.3は128関数から構成され、 |
|||
それがMPI-1のシリーズでは最後とされている。 |
|||
MPIは現在ではいくつかのバージョンがあり、1.3(通称MPI-1)は静的な環境下におけるメッセージパッシングのために使用され、MPI-2.2(通称MPI-2)は並列I/Oや動的プロセス管理、遠隔メモリ操作等の新機能を含んでおり、MPI-3.0(通称MPI-3)はグループ通信のノンブロッキング拡張やリモートメモリアクセスの片方向通信の拡張などを含む。 |
|||
MPIは現在ではいくつかのバージョンがあり、1.3(通称MPI-1)は |
|||
静的な環境下におけるメッセージパッシングのために使用され、 |
|||
MPI-2.2(通称MPI-2)は並列I/Oや動的プロセス管理、遠隔メモリ操作等の |
|||
新機能を含んでおり、MPI-3.0(通称MPI-3)はグループ通信のノンブロッキング拡張や |
|||
リモートメモリアクセスの片方向通信の拡張などを含む。 |
|||
== 実装 == |
== 実装 == |
||
初期のMPI 1.xの実装としてはMPICHがあった。MPICHは[[アルゴンヌ国立研究所]](ANL)と{{仮リンク|ミシシッピ州立大学|en|Mississippi State University}}を中心とするプロジェクトであった。IBMも初期から実装を提供しており、1990年代初期のスーパーコンピューターのメーカーも商用にMPICHの実装や、自社の実装したものを提供していた。オハイオ スーパーコンピューターセンターのLAM/MPIも初期に公開されていた実装の一つである。ANLは10年以上にわたってMPICHの開発を継続しており、その後MPICH 2に発展し、実装としてはMPI-2.1が提供されるに至っている。LAM/MPIといくつかのプロジェクトはOpenMPIに統合された。 |
|||
初期のMPI 1.xの実装としてはMPICHがあった。MPICHは[[アルゴンヌ国立研究所]](ANL)と |
|||
{{仮リンク|ミシシッピ州立大学|en|Mississippi State University}}を中心とするプロジェクトであった。IBMも初期から |
|||
実装を提供しており、1990年代初期のスーパーコンピューターのメーカーも |
|||
商用にMPICHの実装や、自社の実装したものを提供していた。オハイオ スーパーコンピューターセンターの |
|||
LAM/MPIも初期に公開されていた実装の一つである。ANLは10年以上にわたってMPICHの開発を |
|||
継続しており、その後MPICH 2に発展し、実装としてはMPI-2.1が提供されるに至っている。 |
|||
LAM/MPIといくつかのプロジェクトはOpenMPIに統合された。 |
|||
*[[Open MPI]] |
*[[Open MPI]] |
||
119行目: | 49行目: | ||
==プログラムの例== |
==プログラムの例== |
||
以下は "Hello World" プログラムを |
以下は "Hello World" プログラムをC言語でMPI対応版として書いたものである。 この例では "hello" メッセージを各プロセッサに送信し、受信したデータを少し改変して結果をメインプロセスに返し、それを画面に表示する。 |
||
この例では"hello" メッセージを各プロセッサに送信し、受信したデータを少し改変して結果をメインプロセスに |
|||
返し、それを画面に表示する。 |
|||
<source lang="c"> |
<source lang="c"> |
||
142行目: | 70行目: | ||
int i; |
int i; |
||
MPI_Status stat; |
MPI_Status stat; |
||
/* MPI は MPI_Initで開始する |
/* MPI は MPI_Initで開始する。これ以降、全 'N' プロセスが使える */ |
||
MPI_Init(&argc,&argv); |
MPI_Init(&argc,&argv); |
||
/* SPMD環境の規模を取得する */ |
/* SPMD環境の規模を取得する */ |
||
176行目: | 104行目: | ||
} |
} |
||
/* MPI FinalizeでMPIのプログラムは終了する |
/* MPI FinalizeでMPIのプログラムは終了する。ここは弱い同期ポイント */ |
||
MPI_Finalize(); |
MPI_Finalize(); |
||
return 0; |
return 0; |
||
182行目: | 110行目: | ||
</source> |
</source> |
||
2プロセッサを使用してプログラムを実行すると以下のような結果が得られる |
2プロセッサを使用してプログラムを実行すると以下のような結果が得られる<ref>OpenMPIで実行する場合は <code>gcc -g -v -I/usr/lib/openmpi/include/ -L/usr/lib/openmpi/include/ wiki_mpi_example.c -lmpi</code> のようにコンパイルして <code>mpirun -np 2 ./a.out</code>として実行する。</ref>。 |
||
<pre> |
<pre> |
||
0: We have 2 processors |
0: We have 2 processors |
||
0: Hello 1! Processor 1 reporting for duty |
0: Hello 1! Processor 1 reporting for duty |
||
</pre> |
</pre> |
||
2019年2月23日 (土) 16:33時点における版
Message Passing Interface(メッセージ パッシング インターフェース、MPI)とは、並列コンピューティング利用するための標準化された規格である。実装自体を指すこともある。
複数のCPUが情報をバイト列からなるメッセージとして送受信することで協調動作を行えるようにする。自由に使用できる実装としてはMPICHが有名である。他にも商用ベンダなどによる独自の実装が存在する。
ライブラリレベルでの並列化であるため、言語を問わず利用でき、プログラマが細密なチューニングを行えるというメリットがある一方、利用にあたっては明示的に手続きを記述する必要があり、ロックの対処などもプログラマ側が大きな責任をもたなければならない。
業界団体や研究者らのメンバからなる MPI Forum によって規格が明確に定義されているため、ある環境で作成したプログラムが他の環境でも動作することが期待できる。
歴史
MPIへの取り組みは1991年夏にオーストリアの山荘での、小規模な研究者のグループのディスカッションから始まった。その議論は、翌1992年4月29-30日のバージニア州ウィリアムズバーグで、分散メモリ環境のためのメッセージパッシング規格の標準化についてのワークショップに引き継がれた。このワークショップでは標準的なメッセージパッシングインタフェースに必須となるであろう基本的な機能について議論され、標準化に向けてワーキンググループが設立された。ジャック・ドンガラ、Rolf Hempel、Tony Hey、David W. Walkerは1992年11月にドラフトを提案し、これがMPI1となった。1992年11月にはMPIワーキンググループの会議がミネアポリスで行われ、そこで標準化プロセスをより公式な仕組みに乗せることが決められた。MPIワーキンググループは1993年の最初の9ヶ月間は6週ごとにミーティングを行った。MPIのドラフトの標準規格は1993年11月のスーパーコンピューティング・カンファレンスで発表された。パブリックコメントの期間を経て、その内容がMPIに反映され、1994年6月にMPI version 1.0がリリースされた。これらのミーティングとE-mailでの議論がMPIフォーラムそのものであり、このフォーラムへの参加の権利はハイパフォーマンスコンピューティング関係者の人たち全員に開かれている。
この頃MPIに対しては欧米の組織を中心に40の組織から約80人の人々が関与していた。大手の並列計算のメーカーの多くが参加していたほか、大学や政府の研究機関や、その他の企業からも研究者が参加していた。
MPIの標準ではコアライブラリの構文と意味論を定義することによって、FortranやCで移植可能なメッセージパッシングを行うプログラムを幅広い分野で作れるようになっている。
MPIは基本的なルーチン群の仕様を明確に定義して並列計算機のメーカーに対して公開しているので、彼らはそれに基づいて効率的に実装を進めることができる。その結果、各メーカーは自社製品のマシンに低レベルのMPI標準に準拠したルーチン群の実装を搭載し、さらにその上に高次の分散メモリ通信環境のルーチンを乗せることができる。MPIは単純かつ基本的で移植可能なプログラムを書くことも可能である一方で、ハイパフォーマンスなメッセージパッシングを先進的な計算機の上で行うようなプログラミングも可能である。
メッセージパッシングの本当の意味での標準を目指そうという考え方に従って、MPIではどれかの製品の機能を標準に採用するというやり方ではなく、いくつかのシステムから最も有用な機能をMPI取り込むというやり方が取られている。各機能はIBM由来、インテル由来、nCUBE由来、PVM由来、Express由来、P4由来、PARMACS由来のものがある。メッセージパッシングという手法が人気があるのは広い移植性と、分散メモリや共有メモリでのマルチプロセッサによる処理、ワークステーションをネットワークで接続したものやそれらすべてのような複合的な環境に対して適用可能なためである。この手法は、様々の構成や、ネットワークの速度、メモリアーキテクチャーに依存せず適用できる。
MPIは、ARPAとアメリカ国立科学財団のグラントASC-9310330、NSF Science and Technology Center Cooperative agreement number CCR-8809615、ヨーロッパではEsprit Project P6643から活動資金を供給されているほか、テネシー大学はMPIフォーラムを資金的に支えている。
概要
MPIはプログラミング言語とは独立の通信プロトコルで、並列計算機上で動くプログラムに使用される。通信はPoint-to-Pointとグループ通信(Collective communication)の両方がサポートされている。MPIは「メッセージパッシングアプリケーションのためのプログラミングインタフェースで、プロトコルとセマンティクスを定義することで、全ての実装においてその機能がどう振る舞うべきかを仕様として定めている」MPIのゴールはハイパフォーマンス、スケーラビリティ、移植性である。MPIは現在でもハイパフォーマンスコンピューティングにおいてはよく用いられる手法である。
MPIは有名な標準の承認を得た規格ではない。しかしMPIは分散メモリ上で動作する並列計算プログラムのプロセス間通信のモデルとしてはデファクトスタンダードとなっている。実際に、コンピュータークラスターのような構成の分散メモリ型スーパーコンピューター用のプログラムではMPIはよく採用される。MPI-1のモデルは共有メモリを一切必要とせず、MPI-2は限定的に分散共有メモリの概念を導入している。にもかかわらず、MPIのプログラムは共有メモリ型の計算機で使用されることもよくある。これは共有メモリ型のプログラミングのモデルに対して、MPI型のモデルの設計の方がNUMAアーキテクチャーのシステムではメモリアクセスの局所性(参照の局所性)などの点で適しているためである。
MPIはOSI参照モデルの役割にあてはめると、役割としては5層(セッション層)以上に対応すると考えられるが、実際の実装ではソケットとTCP(トランスポート層)を使用しているため、より広い範囲(4 - 7層)をカバーしている。
多くのMPIの実装では、C、C++、Fortranから直接呼ぶことのできるいくつかのルーチンを中心として構成されている。そしてC#やJava、Pythonなどの他の言語はCなどで作ったライブラリを介せばMPIを利用できる。MPIがMPI制定以前のメッセージパッシングライブラリよりも優れているのは、移植性とスピードである。MPIはほぼ全ての分散メモリ環境で実装されているので、それらの環境間ではどこへでも移植可能で、各ハードウェアに対して実装されるときに最適化されているので高速に動作する。
MPIは言語独立の仕様(Language Independent Specifications; LIS)を採用しているため、どのような言語からでも呼び出せる。最初のMPIの標準はANSI CとFortran-77とのバインディングの仕様とLISであった。ドラフトの仕様は1994年のスーパーコンピューティングのカンファレンスで公開され、その後すぐに承認された。2008年のMPI-1.3は128関数から構成され、それがMPI-1のシリーズでは最後とされている。
MPIは現在ではいくつかのバージョンがあり、1.3(通称MPI-1)は静的な環境下におけるメッセージパッシングのために使用され、MPI-2.2(通称MPI-2)は並列I/Oや動的プロセス管理、遠隔メモリ操作等の新機能を含んでおり、MPI-3.0(通称MPI-3)はグループ通信のノンブロッキング拡張やリモートメモリアクセスの片方向通信の拡張などを含む。
実装
初期のMPI 1.xの実装としてはMPICHがあった。MPICHはアルゴンヌ国立研究所(ANL)とミシシッピ州立大学を中心とするプロジェクトであった。IBMも初期から実装を提供しており、1990年代初期のスーパーコンピューターのメーカーも商用にMPICHの実装や、自社の実装したものを提供していた。オハイオ スーパーコンピューターセンターのLAM/MPIも初期に公開されていた実装の一つである。ANLは10年以上にわたってMPICHの開発を継続しており、その後MPICH 2に発展し、実装としてはMPI-2.1が提供されるに至っている。LAM/MPIといくつかのプロジェクトはOpenMPIに統合された。
- Open MPI
- いくつかのMPI実装の技術を統合したもので、主には以下のようなよく知られた3プロジェクトの技術が中心となっている。
- FT-MPI from the テネシー大学
- LA-MPI from ロスアラモス国立研究所
- LAM/MPI from インディアナ大学ブルーミントン校
- Intel MPI Library
- MPICH2をベースとした実装。
- LAM/MPI
- MPICH
- MVAPICH
- MS MPI
プログラムの例
以下は "Hello World" プログラムをC言語でMPI対応版として書いたものである。 この例では "hello" メッセージを各プロセッサに送信し、受信したデータを少し改変して結果をメインプロセスに返し、それを画面に表示する。
/*
"Hello World" MPI テストプログラム
*/
#include <mpi.h>
#include <stdio.h>
#include <string.h>
#define BUFSIZE 128
#define TAG 0
int main(int argc, char *argv[])
{
char idstr[32];
char buff[BUFSIZE];
int numprocs;
int myid;
int i;
MPI_Status stat;
/* MPI は MPI_Initで開始する。これ以降、全 'N' プロセスが使える */
MPI_Init(&argc,&argv);
/* SPMD環境の規模を取得する */
MPI_Comm_size(MPI_COMM_WORLD,&numprocs);
/* そしてこのプロセスのランク(番号)は */
MPI_Comm_rank(MPI_COMM_WORLD,&myid);
/* この時点で全プログラムは同等に走っており、SPMDモデルの中でこれらを区別する場合には
ランクで見分ける。ただしランク0のプログラムは特別な処理をしていることもある。... */
if(myid == 0)
{
printf("%d: We have %d processors\n", myid, numprocs);
for(i=1;i<numprocs;i++)
{
sprintf(buff, "Hello %d! ", i);
MPI_Send(buff, BUFSIZE, MPI_CHAR, i, TAG, MPI_COMM_WORLD);
}
for(i=1;i<numprocs;i++)
{
MPI_Recv(buff, BUFSIZE, MPI_CHAR, i, TAG, MPI_COMM_WORLD, &stat);
printf("%d: %s\n", myid, buff);
}
}
else
{
/* rank 0から受信: */
MPI_Recv(buff, BUFSIZE, MPI_CHAR, 0, TAG, MPI_COMM_WORLD, &stat);
sprintf(idstr, "Processor %d ", myid);
strncat(buff, idstr, BUFSIZE-1);
strncat(buff, "reporting for duty", BUFSIZE-1);
/* rank 0に送信: */
MPI_Send(buff, BUFSIZE, MPI_CHAR, 0, TAG, MPI_COMM_WORLD);
}
/* MPI FinalizeでMPIのプログラムは終了する。ここは弱い同期ポイント */
MPI_Finalize();
return 0;
}
2プロセッサを使用してプログラムを実行すると以下のような結果が得られる[1]。
0: We have 2 processors 0: Hello 1! Processor 1 reporting for duty
脚注
- ^ OpenMPIで実行する場合は
gcc -g -v -I/usr/lib/openmpi/include/ -L/usr/lib/openmpi/include/ wiki_mpi_example.c -lmpi
のようにコンパイルしてmpirun -np 2 ./a.out
として実行する。