プロジェクトで Stringの Augmented Reality SDK を使用しています。基本的に、この SDK は、認識した画像の一連のマーカーと、iPhone のカメラ ビュー内の 3D 空間でマーカー画像が配置されている場所を概説する関連する OpenGL マトリックス変換を返します。私がやろうとしているのはCATransformLayer
、シーンに対してマップして、マーカー画像上で適切な向きに表示され、その場所でビデオを再生することです。マトリックス変換 ( に変換) が適用された a のAVPlayerLayer
中に座って、これを行うことができると思いました。CATransformLayer
CATransform3D
私が知る限り、これは特にうまく機能しません — 元の OpenGL マトリックスと の背後にあるマトリックスの間の論理マッピングを取得できないようですCATransform3D
。
マーカー変換とオブジェクトの間の直接変換を行うと、かなり混乱していることがわかりCATransform3D
ます (青いビットは私のレイヤーです)。
CALayer
私はそれらが同じであると仮定しました( GLのバッキングのためにそれらが同一であると何度か言われました)。これは本当ですか?何か不足していますか?
ビデオをテクスチャとしてシーンにレンダリングすることに戻ることもできますが、可能であれば、物事を高レベルに維持することをお勧めします — アイデア/コメント/考えはありますか?