0

ジョブとしてデプロイされた kubernetes クラスターの GPU ワーカー ノードの 1 つで Nvidia ディープストリーム コンテナーを実行していました。以下は私の YAML ファイルです。

 apiVersion: batch/v1
kind: Job
metadata:
  name: deepstream-test
spec:
  backoffLimit: 1
  template:
    spec:
      containers:
        - name: nvidia-deepstream
          image: lkkrishna945/deepstream-5.0:test
          command: ["deepstream-app","-c","/opt/nvidia/deepstream/deepstream-5.0/samples/configs/deepstream-app/source30_1080p_dec_infer-resnet_tiled_display_int8_edited.txt"]
          ports:
            - containerPort: 8554
          resources:
            limits:
              nvidia.com/gpu: 1
      restartPolicy: Never

このジョブをデプロイした後、正常に実行されていますが、この出力は、オンパーマ オープンソース kubernetes クラスターのワーカー ノードの 1 つで実行されていますが、その実行中の出力をビデオでストリーミングしたかったのです。

ベースのNvidiaディープストリームコンテナを使用して構築された私のDockerfileは次のとおりです。

FROM nvcr.io/nvidia/deepstream:5.0-dp-20.04-triton

ADD source30_1080p_dec_infer-resnet_tiled_display_int8_edited.txt /opt/nvidia/deepstream/deepstream-5.0/samples/configs/deepstream-app/
CMD ["deepstream-app -c /samples/configs/deepstream-app/source30_1080p_dec_infer-resnet_tiled_display_int8_edited.txt"]

これに関する提案/解決策を手伝ってくれる人はいますか?

4

1 に答える 1