3

AV可変コンポジションを使用してiOSのビューにコンテンツをレンダリングすることを計画しています。iPhoneカメラの1つからのビデオを、レイヤーで作成されたコンテンツと組み合わせたいと思います。レイヤーをビデオコンテンツに合成できるため、可変構成はここでの法案に適合しているようです。

ビデオの録画中に合成を行うことは重要ではありません。必要なデータを合成にミックスして、最初のビデオ録画が完了した後に(AVExportSessionを介して)ファイルにレンダリングすることもできます。

しかし、私が得られないのは、[ca]レイヤーが、AVフレームワークのコンテキストで、構成中の特定の時間に何を描画するかをどのように知っているかということです。

私のレイヤーコンテンツはタイムラインに依存しています。タイムラインは、レイヤー内に描画する必要があるものを記述します。したがって、レイヤーを可変コンポジションに埋め込み、そのコンポジションをAVExportSessionを介してエクスポートすると、CALayerインスタンスはコンテンツを生成する予定の時間をどのように知ることができますか?

4

1 に答える 1

1

私も似たようなことがありました。WWDC 2010 AVEditDemo アプリケーション ソースを確認することをお勧めします。ビデオ トラックの上に CALayer を配置し、その上でアニメーションを実行するという、まさに必要なことを行うサンプル コードがあります。

この件に関する私の取り組みは、次の場所でも確認できます

于 2011-07-06T13:52:23.843 に答える