0

(.csv) データ ファイルを受け取り、いくつかの処理を行い、2 つの同様のファイルを返す Azure ML Web サービスを作成しようとしています。Azure ML プラットフォームに最近追加された Python サポートは非​​常に役に立ち、コードを正常に移植して実験モードで実行し、Web サービスを公開することができました。

「バッチ処理」API を使用して、ファイルを BLOB ストレージからサービスに送信し、目的の出力を取得できるようになりました。ただし、小さなファイル (数 KB) の実行時間は、ローカル マシンよりも大幅に遅くなります。さらに重要なことに、わずかに大きな入力データ ファイル (40MB) の場合、プロセスは決して戻らないようです。同じファイルのローカル マシンでの処理時間は 1 分未満です。

私の質問は、私たちが間違っていることが何かわかるかどうか、またはこれを高速化する方法があるかどうかです。実験の DAG 表現は次のとおりです。

実験の DAG 表現

これは、実験を設定する方法ですか?

4

1 に答える 1

1

入力テーブルのタイムスタンプ列の処理に問題があったようです。成功した回避策は、"Metadata Editor" ブロックを使用して、列を明示的に文字列値として処理することでした。最終的なモデルは次のようになります。

最終モデル

于 2015-03-15T09:05:59.840 に答える