Hadoop がログ記録に log4 を使用していることはわかっており、conf/log4j.properties のプロパティを表示して、既存のログ ファイルの場所を特定できました。ただし、ログを hbase mapreduce ジョブから完全に新しいファイルに転送する方法はありますか? アイデアは、夜間に実行するジョブがスケジュールされており、このジョブだけを /var/log/myjob.log に記録できるようにして、そのファイルを実行する代わりにエラー/例外をチェックできるようにしたいということです。ジョトラッカー UI。これは可能ですか?もしそうなら、どのように?また、ジョブはクラスターに送信されることに注意してください。ログ ファイルを HDFS または通常の (Linux) プラットフォームに置く必要があるかどうかをアドバイスしてください。Linux の場合、すべてのノードに配置する必要がありますか、それとも Hadoop マスターのみに配置する必要がありますか?
提案をありがとう。