カスタム モデルのバッチ予測ジョブを送信したい (私の場合はトーチ モデルですが、この場合は関係ないと思います)。だから私はドキュメントを読みました:
しかし、例がないため、頂点 ai がモデルに送信する json オブジェクトのスキーマがどうなるかはわかりません。誰かがこの作品を作りましたか?
私の最善の推測では、リクエストは次の本文になります。
{'instance' : <b64-encoded-content-of-the-file>}
しかし、(頂点 ai の他の「機能」について) ドキュメントを読むと、次の本体も想像できます。
{'instance': {'b64' : <b64-encoded-content-of-the-file>}}
誰かが実際に知っていますか?
私がしたもう1つのことは、取得したリクエストを返す「偽モデル」を作成することです...バッチ予測ジョブを送信すると、実際には正常に終了しますが、出力ファイルを確認すると空です...だから.. . 実際には、頂点 AI ドキュメントを解読する他の方法を考えるために、助けが必要です/もっと時間が必要です。
前もって感謝します!