log4jログ ファイルをHadoop Distributed File Systemに直接書き込もうとした人はいますか?
はいの場合、これを達成する方法を返信してください。そのためのアペンダーを作成する必要があると思います。
これが道ですか?私の必要性は、特定の間隔でログをファイルに書き込み、後の段階でそのデータを照会することです。
このタスクにはApache Flumeを使用することをお勧めします。Log4j 用の Flume アペンダーがあります。このようにして、ログを Flume に送信し、HDFS に書き込みます。このアプローチの良いところは、Flume が HDFS との単一の通信ポイントになることです。Flume を使用すると、HDFS とやり取りするための大量のコードを何度も記述することなく、新しいデータ ソースを簡単に追加できます。