Javaアプリを作りたいです。これは、Hadoopにデプロイできます。目的は次のとおりです。
- さまざまなサーバーからのより大きなログファイルがたくさんあります(Tuxedoログ、Websphereログ、IISログ)
- これらの大きなファイルを分析して、Tuxからはこれだけ多くのエラーが発生し、Websphereからはこれほど多くのエラー/警告が発生することを示すレポートとして生成したいと思います。
そのため、この時点で、Hadoopに関する限られた知識で支援が必要です。
- マップのほとんどはアルゴを減らします。ログファイルがさまざまなソース(Tux、Websphere、IISなど)からのものである場合とは異なり、同じタイプのファイルで動作します
- この場合、map()関数とreduce()関数を設計するにはどうすればよいですか?
- ログレポート(例:Tuxからのエラー/警告、Websphereからのエラー/警告/情報)の組み合わせなどを保存するにはどうすればよいですか?
前もって感謝します