AV可変コンポジションを使用してiOSのビューにコンテンツをレンダリングすることを計画しています。iPhoneカメラの1つからのビデオを、レイヤーで作成されたコンテンツと組み合わせたいと思います。レイヤーをビデオコンテンツに合成できるため、可変構成はここでの法案に適合しているようです。
ビデオの録画中に合成を行うことは重要ではありません。必要なデータを合成にミックスして、最初のビデオ録画が完了した後に(AVExportSessionを介して)ファイルにレンダリングすることもできます。
しかし、私が得られないのは、[ca]レイヤーが、AVフレームワークのコンテキストで、構成中の特定の時間に何を描画するかをどのように知っているかということです。
私のレイヤーコンテンツはタイムラインに依存しています。タイムラインは、レイヤー内に描画する必要があるものを記述します。したがって、レイヤーを可変コンポジションに埋め込み、そのコンポジションをAVExportSessionを介してエクスポートすると、CALayerインスタンスはコンテンツを生成する予定の時間をどのように知ることができますか?