問題タブ [mpi]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c++ - Boost MPIのAutoconfマクロ?
configure.ac
BoostMPIをチェックするautoconfマクロを検索しています。
インターネット上でそれらのいくつかを見つけるのは難しいことではありませんが、私が試したもののどれも期待どおりに機能しませんでした。
何をax_boost_mpi.m4
使いますか?
編集:私は私の要件をよりよく説明します。HAVE_BOOST_MPI
コンパイラとリンカのフラグをどこかに格納し、コンパイラを通常のc++コンパイラから使用可能なmpiCCまたはmpic++に切り替えるために、Boost MPIが使用可能かどうか(を定義)を通知するマクロが必要です。
Boost MPIが見つからない場合は、エラーで構成プロセスを停止するか、HAVE_BOOST_MPIを定義せずにg++を引き続き使用するかを選択できるようにしたいと思います。
プラスとして、いくつかのチェックを実行できるようにMPIRUN変数を定義する必要があります。
language-agnostic - 並列コードのドキュメントにはどのような図がありますか?
文書化する必要のある並列コード(MPIを使用して実装)があります。高レベルの戦略を説明するフロー図が欲しいのですが。
送信、受信、ブロードキャスト、収集、削減、およびその他の操作を説明するために、どのような図を使用しますか?
(編集:私はそれらを行うためのLinux / LaTeXソフトウェアにも同様に興味があります)
mpi - mpirun 実際に使用されたプロセッサの数
OpenMPI マネージド クラスターでプログラミングを開始しています。次のコマンドを使用して、実行可能ファイルを実行します。
今私が理解しているのは、32 は作成する必要があるプロセスの数を指定するということです。それらは同じプロセッサ上で作成される場合があります。私は正しいですか?
プロセス数の増加に伴い、実行時間が増加していることに気付きました。上記が原因でしょうか。
クラスタの実行およびスケジューリング ポリシーを確認するにはどうすればよいですか?
通常、私が取り組んでいるクラスターでは、PC で実行されているのと同じように、各ノードで多くのプロセスが実行されていると想定するのは正しいですか。
mpi - ボンネットの下のmpi
MPIでのプログラミングに関するプレゼンテーションを行う必要があります。MPIが内部でどのように機能するかについてのセグメントを追加する必要があります。たとえば、MPI_Initを呼び出すとどうなりますか?
私がこれらの詳細を学ぶことができるところから何か良い情報源を知っていますか?
mpi - コミュニケーターとMPIのグループの違いは何ですか?
私はこれらの用語の定義を読みましたが、私の解釈では、グループとコミュニケーターの間には1対1の関係があります。グループは、相互に通信することを望む一連のプロセスであり、コミュニケーターはグループの実装です。
これは正しいです?もしそうなら、なぜ2つの異なる用語があるのですか?
mpi - MPI_Initがargcおよびargvへのポインターを受け入れるのはなぜですか?
これがMPI_Init関数の使用方法です
MPI_Initがargvの値の代わりにargcとargvへのポインターを使用するのはなぜですか?
linux - 関数が呼び出されていない共有オブジェクトファイルを示すldd出力
OpenMPIで作成された実行可能ファイルに対してlddコマンドを実行しました。libpthread.soへの参照を示しています。LD_PRELOAD変数を使用してpthread_createの独自の実装を作成しましたが、その出力から、MPI実装が期待どおりにpthread_createを呼び出していないようです。使用されていないのに、lddがpthread so fileを出力に表示するのはなぜですか?Open MPIは、機能を実装するためにノードごとに個別のMPIスレッドを使用しませんか?
arrays - 2 次元配列の MPI データ型
整数配列の配列 (基本的には 2 次元配列) をルートからすべてのプロセッサに渡す必要があります。C プログラムで MPI を使用しています。2 次元配列の MPI データ型を宣言する方法とメッセージの送信方法 (ブロードキャストまたはスキャッターを使用する必要があります)
mfc - VC++ MFC プロジェクトで MPI を使用していますか?
VC++ MFC プロジェクトで MS_MPI を使用する方法を知っている人はいますか? 私はすでに大規模な MFC プロジェクトを持っており、MPI を使用してその一部でのみ並列処理を使用したいと考えています。(別のコードで MPI を使用する方法は知っていますが、VC++ MFC プロジェクトに統合する方法はわかりません)
c - 終了したプロセスに MPI_Send するとどうなりますか?
終了したプロセスに MPI_Send するとどうなりますか?
私は MPI を学んでおり、C で小さな砂糖の分布シミュレーションを書いています。工場が生産を停止すると、それらのプロセスは終了します。倉庫が空になると、倉庫は終了します。MPI_Send の戻り値を見て、店の倉庫への注文が (倉庫プロセスが終了したために) 成功しなかったかどうかをどうにかして知ることはできますか? ドキュメントには、この状況の具体的なエラー コードは記載されていませんが、成功してもエラーは返されません。
僕にできる:
エラーコードを無視しますか?
ありがとう