HadoopのファイルシステムとしてKFSを使用してmapreduceがどのように発生するかを理解したかったのです。
#。/ bin / start-mapred.sh
map / reduce job / taskトラッカーが起動している場合、すべてのI/OはKFSに対して実行されます。
それで、私の入力ファイルが異なるノード(Kosmosサーバー)に散在していると仮定すると、I(ファイルシステムとしてKFSを使用するhadoopクライアント)はどのようにMapreduceコマンドを発行しますか?
さらに、Mapreduceコマンドを発行した後、hadoopクライアントはすべてのデータを異なるサーバーからローカルマシンにフェッチしてからMapreduceを実行するか、入力ファイルが配置されているマシンでTaskTrackerデーモンを起動します。そこでMapreduceを実行しますか?間違っている場合は修正してください。ただし、Mapreduceの最上位の入力ファイルの場所が関数getFileBlockLocations(FileStatus、long、long)によって返されていると思います。
お手数をおかけしますが、よろしくお願いいたします。
よろしく、ニキル