一連のスクリーンショット (.png ファイル) からビデオを作成します。各スクリーンショットには、いつ撮影されたかに関するタイムスタンプ情報が関連付けられています。スクリーンショット間の時間間隔は異なる場合があり、ビデオでその違いを維持することが強く望まれます。
単一のffmpeg
コマンド/API を使用して、一連の画像 + 時間 (またはフレーム) オフセットを提供し、1 つのビデオ ファイルを出力として取得する方法はありますか? ここまでで、画像ごとにカスタムの長さの短いビデオ ファイルを生成し、それらを手動でマージする必要があります。
ffmpeg -y -loop 1 -i image1.png -c:v libx264 -t 1.52 video1.avi
ffmpeg -y -loop 1 -i image2.png -c:v libx264 -t 2.28 video2.avi
...
ffmpeg -y -loop 1 -i imageN.png -c:v libx264 -t 1.04 videoN.avi
ffmpeg -i "concat:video1.avi|video2.avi|...videoN.avi" -c copy output.avi
間隔が大きい間、これはまったく問題ありませんが、アプローチ全体が少し壊れやすいようです。