私は作業Core Videoセットアップ (を介して USB カメラからキャプチャされたフレームQTKit) を持っており、現在のフレームは、サブクラス化されたNSOpenGLView. Core Imageここまでは良いのですが、このフレームにフィルターを使用したいと思います。これで基本的なコードのセットアップが完了し、以前のように未処理のビデオ フレームがレンダリングされますが、最終的に処理された出力CIImageは、画面に合わせられたクワッドとしてビューにレンダリングされます。私の 3D レンダリングにイメージがブリットされたように感じます。これは私が望んでいないことです!
ビデオ フレーム (a CVOpenGLTextureRef) を処理Core Imageし、結果として得られる画像をプレーンに 3D でレンダリングする方法を探しています。オフスクリーン レンダリング (ビューポートを保存し、新しいビューポートとモデルビューとパースペクティブ マトリックスを設定し、FBO にレンダリングする) を使用する必要がありますか、それとももっと簡単な方法はありますか?
前もって感謝します!