私はビッグ データと Hadoop について読み始めたので、この質問は非常にばかげているように聞こえるかもしれません。
これは私が知っていることです。
各マッパーは少量のデータを処理し、中間出力を生成します。この後、シャッフルとソートのステップがあります。
ここで、Shuffle = 中間出力を、それぞれが特定のキーを扱うそれぞれの Reducer に移動します。
では、1 つのデータ ノードで Mapper と Reducer コードを実行できますか、それともそれぞれに異なる DN を使用できますか?