おそらく、個別のExcelファイルに独立した大規模なデータセットがあります。
実行効率の観点から、clojure の Pmap 関数を使用してデータを処理するか、hadoop の map reduce を使用する方がよいでしょうか?
各Excelファイルは少なくとも約34000行で構成されており、かなりの数があります。
私は両方に比較的慣れておらず、それらについて研究しているため、初心者の質問で申し訳ありません
何人かの方が説明しているように、
おそらくもう 1 つの質問は、clojure pmap を、ソフトウェアの同じコピーの複数のインスタンスを実行しているインスタンスと比較することです。それらの違いは何ですか?
私が考えることができる唯一のことは、pmapが任意の量の変数を取ることができるということですが、アプリケーションのインスタンスごとに1つのファイルを読み取るには、ファイルの数を事前に知ってインスタンスを初期化する必要があります