MPIのベンチ(追記アリ)

PS3 Linux で MPI を利用することは意外とあっさりできた。ディストリビューションが異なるnodeをつないでもディレクトリ構成さえ同じであれば問題なく通信できた。また、Yellow Dog Linux 5 の PS3 を 2、4 ノード用いた場合と Fedora7, Ubuntu 7.0.4 を別のディストリを組にして2、4台接続した場合では後者の方がパフォーマンスはよかった。ただし、ディストリごとに2台ずつ組にして測定したところ、それほど差異はなかった。コンパイラgcc
課題としてmpich1だけでなく、mpich2も使えるようにしたい。CellBEとMPICH-G2とglobuと連携させられるか?などを調べたい。また、研究で使えるPPE/SPEとMPIの連携のひな形をつくろうかと思う。C/C++CellSDK 3.0から可能となったFortranの両方でやってみようかと。


MPICH1, MPICH2, LAM, MPICH-G2, Globus Toolkitなど色々ぶちこんで実験してきたので環境変数が変に、また一部のnodeでXenがエラー原因になってピンチ。明日はFedora8祭なので、この際全部入れ替えて最適化しようと思う。MPIの実行にXenは入れない方がパフォーマンスがよいらしいので、次は仮想化無しで測定してみようかと。Fedora7とFedora8でカーネルが変わっていなければイコールコンディションとみなしてもいいんじゃないかと。ということで、次週はXenとLVMは抜きでFedora8でMPICH。


他にやってみたいことVista, マルチコア, Visual Studio, Intel Fortran, MPICH2の条件でのMPI利用環境作り。



ぼちぼちシミュレーションの設計をはじめないと、論文提出に間に合わない。システム構築やら雑務をこなしていたら、尻に火がついてきた!?