こちらの投稿: Azure Machine Learning Request Response latency とコメントに記載されている記事を読んだ後、公開された Web サービスがバッチ モードで呼び出された場合にもこの動作が当てはまるかどうか疑問に思いました。特に、バッチ呼び出しは「同時呼び出し」構成の影響を受けないことをどこかで読んだので(申し訳ありませんが、現時点ではリンクが見つかりません)...
このシナリオでは、カスタム R モジュールをワークスペースにアップロードしました。これには、デフォルトでは aML で使用できないライブラリが含まれています。このモジュールは、データセットを取得し、バイナリ ツリーをトレーニングし、いくつかのプロットを作成して、それらをデータセットとして返す前に base64 でエンコードします。ローカルでは、5 秒もかかりません。しかし、aML Web サービスでは、約 1 秒かかります。サービスを複数回呼び出すと、バッチモードでのランタイムが改善されないようです。
さらに、リンクされた投稿で言及されているコンテナがどれくらい暖かく保たれるかを知っておくとよいでしょう.