0

プロジェクトで Stringの Augmented Reality SDK を使用しています。基本的に、この SDK は、認識した画像の一連のマーカーと、iPhone のカメラ ビュー内の 3D 空間でマーカー画像が配置されている場所を概説する関連する OpenGL マトリックス変換を返します。私がやろうとしているのはCATransformLayer、シーンに対してマップして、マーカー画像上で適切な向きに表示され、その場所でビデオを再生することです。マトリックス変換 ( に変換) が適用された a のAVPlayerLayer中に座って、これを行うことができると思いました。CATransformLayerCATransform3D

私が知る限り、これは特にうまく機能しません — 元の OpenGL マトリックスと の背後にあるマトリックスの間の論理マッピングを取得できないようですCATransform3D

マーカー変換とオブジェクトの間の直接変換を行うと、かなり混乱していることがわかりCATransform3Dます (青いビットは私のレイヤーです)。

この問題の現在の状態のスクリーンショット

CALayer私はそれらが同じであると仮定しました( GLのバッキングのためにそれらが同一であると何度か言われました)。これは本当ですか?何か不足していますか?

ビデオをテクスチャとしてシーンにレンダリングすることに戻ることもできますが、可能であれば、物事を高レベルに維持することをお勧めします — アイデア/コメント/考えはありますか?

4

1 に答える 1

0

この答えを見てみてください。それはあなたが必要とすることをするべきです。

于 2012-06-27T15:11:56.020 に答える