私は作業Core Video
セットアップ (を介して USB カメラからキャプチャされたフレームQTKit
) を持っており、現在のフレームは、サブクラス化されたNSOpenGLView
. Core Image
ここまでは良いのですが、このフレームにフィルターを使用したいと思います。これで基本的なコードのセットアップが完了し、以前のように未処理のビデオ フレームがレンダリングされますが、最終的に処理された出力CIImage
は、画面に合わせられたクワッドとしてビューにレンダリングされます。私の 3D レンダリングにイメージがブリットされたように感じます。これは私が望んでいないことです!
ビデオ フレーム (a CVOpenGLTextureRef
) を処理Core Image
し、結果として得られる画像をプレーンに 3D でレンダリングする方法を探しています。オフスクリーン レンダリング (ビューポートを保存し、新しいビューポートとモデルビューとパースペクティブ マトリックスを設定し、FBO にレンダリングする) を使用する必要がありますか、それとももっと簡単な方法はありますか?
前もって感謝します!