だから、私は初めてNiFiを使用しています。それを使用して API を呼び出し、データを HDFS (Hortonworks Sandbox 2.4) にパイプしようとしています。現在、GetHTTP と PutHDFS の 2 つのプロセッサしか使用していません。
両方のプロセッサが正常に構成されているようです...それらは実行されますが、Ambari を介して Hadoop にアクセスしたときに作成された出力ファイルが見つかりません...出力ディレクトリを /user/ に設定しました。しかし、何も表示されません。ただし、PutHDFS プロセッサに関する警告メッセージが表示されます。
WARNING PutHDFS[...] penalizing StandardFlowFileRecord[...] and routing to failure because file with same name already exists.
...そのため、ファイルはどこかに書き込まれている必要があります。xml 形式と JSON 形式の両方を指定して API 呼び出しを変えてみましたが、明らかな違いはありません。
NiFi のパイプラインに何らかの処理を追加する必要があるか、サンドボックスの間違った場所を探しているかのどちらかだと思います。誰でもアドバイスできますか?