問題タブ [spring-cloud-dataflow]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
spring-cloud-dataflow - rest-api を使用して spring クラウド タスクを実行する方法
クラウド タスクをスケジュールし、ストリームを使用して実行するように構成できることも知っています。開発者として、タスクをオンデマンドで実行できるように、rest-api を使用して春のクラウド タスクを実行したいと考えています。基本的に私はワークフロー管理システムを持っており、control-m エージェントを使用しています。したがって、一部のジョブは control-m によって実行され、一部のタスクは Spring クラウド データフロー サーバーにデプロイされます。1 つのジョブが完了したら、クラウド上にある別のジョブを実行する必要があります。そのためには、Rest API を呼び出してクラウド タスクをオンデマンドで実行する機能が必要です。この機能が必要だと確信していますが、ドキュメントの例が見つかりません。誰か助けてください。前もって感謝します。
spring - メッセージング ソース (つまり、RabbitMQ、Kafka) へのイベントに基づいてスプリング クラウド タスクを実行する
私はSpringクラウドタスクとSCDFの学習が初めてなので、これを尋ねます。
イベントに基づいて SCT を実行したい (メッセージが Rabbit MQ に投稿されたとします) ので、次の 2 つの方法で実行できると思います。
RabbitMQ からメッセージをポーリングし、データをストリームに送信するソースを作成します。次に、ストリームからデータを読み取るシンクを作成します。データが (ソース ストリームから) シンクに到達するとすぐに、タスクが起動されます。
これが可能かどうかわかりませんか?
別の方法として、タスク ランチャーを使用することもできます。ここで、タスク ランチャーはストリームで構成され、リスナーは rabbitMQ からのメッセージをポーリングします。メッセージが受信されると、トリガーがプロセスを開始し、タスクランチャーがタスクを起動します。しかし、どうすればメッセージデータを自分のタスクに入れることができるかわかりませんか? データを TaskLaunchRequest に追加する必要がありますか?
/li>
spring-cloud-config - spring cloud config server - 暗号値の復号化なし
- Spring クラウド データ フロー サーバー Cloudfoundry - 1.0.0.RELEASE
- Spring クラウド構成サーバー - 1.1.3
これは奇妙な動作です。Spring Cloud Data Flow にデプロイされた Spring Cloud Stream アプリケーションを観察しています。バインドされた構成サーバー インスタンスは、プロパティ ファイルから {cipher} プリペンドされた値をプレーン テキスト値として読み取り、それらを復号化しようとはしていません。
アプリケーションのデバッグ中に次のようなものが表示されます。
このようなものの代わりに:
構成サーバーの構成方法と、Git リポジトリーからプロパティー・ファイルをロードしているという事実に関して、他のすべては順調に進んでいるように見えます。暗号値を解読していないだけです。私たちが忘れている単純なことは何ですか?
rabbitmq - SpringクラウドデータフローストリームでRabbitmqバインダーを使用する方法
特定の時間間隔に基づいてタスクを起動するストリームがあります。Rabbit バインダーを使用したいのですが、rabbitmq ブローカー プロパティを提供する構文がありません。誰かが私を助けてくれませんか。
cloud-foundry - Spring Cloud Dataflow の利点は何ですか?
私が見てきたことに基づいて、Spring Cloud Dataflow (SCDF) でストリームを作成すると、基盤となるアプリケーションがデプロイされ、通信サービス (RabbitMQ など) がバインドされ、Spring Cloud Stream 環境変数が設定され、アプリケーションが開始されます。これはすべて、cf push コマンドを使用して手動で簡単に実行できます。
その間、私は Spring Cloud Dataflow でいくつかの欠点に直面しています。
- SCDF サーバーは PCF のメモリを大量に消費します (6 つのアプリケーションしかないストリームがありますが、サーバーに約 10GB 必要です)
- アプリケーションの命名、メモリ、インスタンスなどに柔軟性がない (通常は manifest.yml で設定するすべてのもの)
- ビルド ツール (Bamboo など) との統合には、PCF CLI だけでなく SCDF CLI を使用する必要があるため、追加の作業が必要になります。
- 既存のストリームは変更できません。Blue-Green デプロイを行うには、アプリケーションを手動でデプロイする必要があります (サービスをバインドし、環境変数を手動で設定します)。その後、Blue-Green デプロイが完了すると、SCDF はストリームを Failed として表示します。これは、基盤となるアプリケーションの 1 つが変更されたことを認識していないためです。
- 失敗したストリームを再デプロイしようとしたときの MySQL Primary Key Constraint エラーなど、私が遭遇したさまざまなエラー
それで、私は何が欠けていますか?アプリケーションを手動でデプロイするだけで、Spring Cloud Dataflow を使用することが有益なのはなぜですか?