もっと徹底した返事を書く時間がもっとあればいいのにと思います。簡単な基本事項は次のとおりです。
画面またはファイル宛てのハードウェアからのオーディオおよびビデオを操作するには、AVCaptureConnectionsを使用して、ソースと宛先の調整に役立つAVCaptureSessionをセットアップする必要があります。セッションインスタンスを使用して、ビットレートや品質などの出力プロパティを設定するとともに、プロセスを開始および停止します。AVCaptureConnectionインスタンスを使用して、サウンドの入力レベルの監視やビデオの向きの設定など、AVCaptureInputPortとAVCaptureOutputPort(またはAVCaptureVideoPreviewLayer)間の接続を制御します。
AVCaptureInputPortは、AVCaptureDeviceとは異なる入力です。これは、カメラやマイクなど、ビデオまたはオーディオの送信元です。通常、利用可能なすべてのデバイスを調べて、オーディオであるか、前面カメラであるかなど、探しているプロパティを持つデバイスを選択します。
AVCaptureOutputは、AVが送信される場所です。これは、データをリアルタイムで処理できるようにするファイルまたはルーチンなどです。
AVCaptureVideoPreviewLayerは、選択したビデオ入力デバイス(フロントカメラまたはバックカメラ)の出力を非常に高速にレンダリングするために最適化されたOpenGLレイヤーです。通常、これを使用して、使用している入力をユーザーに表示します。これは、カメラのファインダーのようなものです。
このようなものを使用する場合は、AppleのAVFoundationプログラミングガイドを読む必要があります
これがあなたをもっと助けるかもしれない画像です(上記のドキュメントから):
より詳細なビュー: