Azure SQL テーブルにコピーする必要があるログ データを含む多数の BLOB があり、より多くの BLOB が定期的に到着します。ブロブは、形式で名前が付けられます[ORIGINALTARFILENAME].tar.gz.log
。
データ ファクトリを使用して、タイムアウトせずに最初のバックフィルを実行し、同じパイプラインを変換して、BLOB が 2 回処理されないように定期的なスケジュールで実行するにはどうすればよいでしょうか?
それは本質的にですか:
- 1 回限りのプロセスを作成する
- VSでプロセスを開く
- ある種のスケジュールを含めるように json を修正します
- 変更をデプロイする