この簡単な例を試した後、UCI のガラス データで BreimanExample を試してみました。
https://cwiki.apache.org/MAHOUT/breiman-example.html
私の質問は、Mahout で RandomForest を作成したら、それを使用して予測を行うためにどのように「ロード」するかということです。
Python の sklearn を使用すると、これは簡単です。フォレストをディスクにピクルして、後でロードし、ライブ インタラクションのために Web サーバーの背後に配置するだけです。
しかし、Mahout と Hadoop の場合はどうでしょうか。RandomForest を大規模に構築する場合、出力をキャプチャして使用して将来の予測を行うにはどうすればよいですか?