問題タブ [spring-cloud-dataflow]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
spring - lib-Folder から Jar をアプリケーションとして Spring Data Flow に登録する
Spring Data Flow (Mesos) を使用して自己完結型のアプリケーションを作成しようとしています。それを行うには、プロジェクトの maven 依存関係であるシンク/プロセッサ/ソースを登録したいと考えています。
spring-data-flow が参照用のスキームとして classpath:// を受け入れることは知っていますが、リソース フォルダーまたは (最適な) lib フォルダーにある jar を見つけることができないようです。
自己完結型の jar 内からファイルを適切に参照するにはどうすればよいですか?
spring - Spring クラウド データフローを使用してストリーミング データをシンク ファイルに書き込めません
シェル (UI ではない) を使用して、Spring Cloud データ フローを使用してデータ フロー パイプラインを作成しようとしています。ソースは twitterstream で、シンクはファイルです。file-sink を構成するために私がしたことは次のとおりです。
dataflow:>stream create demo --definition "twitterstream --credentials | file --dir=/opt/datastream --mode=APPEND --filename=tweets.txt"
kafka トピックからデータを消費できますが、シンクの場所の上に書き込むことができず、ファイルが作成されていません。ストリームのデプロイ中にエラー ログはありません。最終的には、ローカル ファイル システムから HDFS に変更します。足りないものはありますか?
PS: /tmp/xd/output 内にデフォルト ファイルを作成するはずのデフォルト ファイル シンク (定義なし) を試しましたが、どちらも起こりませんでした。
spring-cloud-dataflow - 入力をシェルにリダイレクトする方法は?
試してみましjava -jar shell.jar < commands.txt
たが、うまくいかないようです。スクリプトで使用するためのリダイレクトをシェルがサポートすると考える人もいるでしょう。
spring-cloud-dataflow - Spring クラウド データ フロー分散処理
Spring Cloud Data Flow は分散処理をどのように処理しますか? サーバーが PCF にデプロイされていて、2 つのインスタンスがある場合、入力データはこれら 2 つのインスタンス間でどのように分散されますか?
また、PCF にデプロイされた場合、障害はどのように処理されますか? PCF は、失敗したインスタンスの新しいインスタンスを生成します。しかし、ストリームのデプロイも処理してくれるのでしょうか?それとも手動での介入が必要になるのでしょうか?