Azure キューと Web ジョブを使用してデータをフェッチすることにより、数千のリモート XML および JSON データ ファイルの繰り返しデータ集約のソリューションを見つけようとしています。
基本的に、Azure の Web サイト/アプリでは、何らかの入力エンドポイント URL が (パラメーターとしてデータ URL を使用して) 呼び出されます。Web ジョブのバックグラウンド ジョブをトリガーし (または、継続的に実行し、新しい作業のためにキューを定期的にチェックすることができます)、データ URL を取得し、完了時に外部エンドポイント URL をコールバックする必要があります。
現在の主な関心事は、ボリュームとそのパフォーマンス/スケーリング/価格設定のオーバーヘッドです。10 ~ 60 分ごとに約 10,000 の URL が取得されます (ほとんどの URL は 60 分ごとに取得されます)。大量のバックグラウンド ジョブが繰り返されるこのシナリオに関して、いくつか質問があります。
Azure WebJobs (またはワーカー?) は、この量のバックグラウンド処理の適切なオプションであり、それに応じてスケーリングできますか?
この種のボリュームの場合、どの Azure Web サイト レベルが最も適しているでしょうか ( http://azure.microsoft.com/en-us/pricing/details/app-service/で比較)? それとも、この規模で機能するのはクラウドまたは VM だけですか?
提案やヒントをいただければ幸いです。