iOS アプリの作成経験はありますが、ビデオの経験はありません。リアルタイム ビデオをサーバーにストリーミングする iPhone アプリを構築したいと考えています。サーバーにアップロードしたら、そのビデオを消費者にリアルタイムで配信します。
私はかなりの量の資料を読みました。以下が正しいかどうかを誰かに知らせて、空欄を埋めてもらえませんか。
- iPhone でビデオを録画するには、AVFoundation クラスを使用する必要があります。AVCaptureSession をデリゲート メソッド captureOutput:didOutputSampleBuffer::fromConnection を使用すると、ビデオの各フレームにアクセスできます。ビデオフレームができたので、フレームをエンコードする必要があります
- Foundation クラスは、Web サーバーへのストリーミングを簡単にサポートするクラスではなく、AVAssetWriter を介してのみ H264 エンコーディングを提供することを知っています。したがって、ビデオをファイルに書き込む必要があります。
- 2 つの AssetWritters を使用して 10 秒のブロックを書き込み、次に NSStream でそれらの 10 秒のブロックをサーバーに送信できるという他の投稿を読みました。これを実現するために、2 つの AVAssetWriter を連携して使用する方法を誰かが説明できますか? 誰かがコードを持っている場合は、共有してください。