0

Hadoop がログ記録に log4 を使用していることはわかっており、conf/log4j.properties のプロパティを表示して、既存のログ ファイルの場所を特定できました。ただし、ログを hbase mapreduce ジョブから完全に新しいファイルに転送する方法はありますか? アイデアは、夜間に実行するジョブがスケジュールされており、このジョブだけを /var/log/myjob.log に記録できるようにして、そのファイルを実行する代わりにエラー/例外をチェックできるようにしたいということです。ジョトラッカー UI。これは可能ですか?もしそうなら、どのように?また、ジョブはクラスターに送信されることに注意してください。ログ ファイルを HDFS または通常の (Linux) プラットフォームに置く必要があるかどうかをアドバイスしてください。Linux の場合、すべてのノードに配置する必要がありますか、それとも Hadoop マスターのみに配置する必要がありますか?

提案をありがとう。

4

1 に答える 1

0

マッパーおよびリデューサー クラスの setup() メソッドで プログラムによる Log4j ロガーの構成で説明されているように、File Appender を動的に作成できます。

于 2013-06-24T23:24:36.683 に答える