ジョブとしてデプロイされた kubernetes クラスターの GPU ワーカー ノードの 1 つで Nvidia ディープストリーム コンテナーを実行していました。以下は私の YAML ファイルです。
apiVersion: batch/v1
kind: Job
metadata:
name: deepstream-test
spec:
backoffLimit: 1
template:
spec:
containers:
- name: nvidia-deepstream
image: lkkrishna945/deepstream-5.0:test
command: ["deepstream-app","-c","/opt/nvidia/deepstream/deepstream-5.0/samples/configs/deepstream-app/source30_1080p_dec_infer-resnet_tiled_display_int8_edited.txt"]
ports:
- containerPort: 8554
resources:
limits:
nvidia.com/gpu: 1
restartPolicy: Never
このジョブをデプロイした後、正常に実行されていますが、この出力は、オンパーマ オープンソース kubernetes クラスターのワーカー ノードの 1 つで実行されていますが、その実行中の出力をビデオでストリーミングしたかったのです。
ベースのNvidiaディープストリームコンテナを使用して構築された私のDockerfileは次のとおりです。
FROM nvcr.io/nvidia/deepstream:5.0-dp-20.04-triton
ADD source30_1080p_dec_infer-resnet_tiled_display_int8_edited.txt /opt/nvidia/deepstream/deepstream-5.0/samples/configs/deepstream-app/
CMD ["deepstream-app -c /samples/configs/deepstream-app/source30_1080p_dec_infer-resnet_tiled_display_int8_edited.txt"]
これに関する提案/解決策を手伝ってくれる人はいますか?