私はどこでも検索し、コードのさまざまなビットを混合して一致させようとしましたが、機能するものや同じ質問を持つ人は見つかりませんでした。
基本的に、標準のUIKit要素とカメラからの画像(ビデオプレビューレイヤー)を含むiPhoneアプリのビデオデモを作成できるようにしたいと考えています。AirPlayやiOSシミュレーターを使用してデスクトップに投影してからキャプチャしたくないのは、公共の場で屋外でビデオを作成できるようにするためです。このコードで画面をビデオキャプチャすることに成功しました ただし、ビデオプレビューレイヤーは空白です。openGLを使用していて、キャプチャしているのはGPUではなくCPUからのものであるためです。Brad LarsonのGPUImageを使用してビデオプレビューレイヤーをキャプチャしましたが、UIViewの残りの部分はキャプチャされません。両方を組み合わせて画像に変換するコードを見たことがありますが、リアルタイムのビデオキャプチャには遅すぎるかどうかはわかりません。誰かが私を正しい方向に向けることができますか?