iPhone で HTTP ライブ ストリーミング サーバーを実行しようとしています。これは、カメラからビデオ ストリームをキャプチャし、それを HTML5 クライアント (HTTP ライブ ストリーミングをサポートする) にフィードします。
これまでのところ、次の作業を行っています。
- iOS 上の HTTP ライブ ストリーミング サーバー (Node.js で記述)。ビデオ キャプチャ モジュールによって生成されたトランスポート ストリーム (ビデオ/MP2T) ファイルのリストからインデックス ファイルを動的に更新します。
- AVCaptureMovieFileOutput を使用して一連の 10 秒の QuickTime ファイルを連続して生成するビデオ キャプチャ モジュール (ファイル間には小さなギャップがありますが、私のアプリケーションには十分小さいです)。
私が必要としているのは、各 QuickTime ファイルをトランスポート ストリーム ファイル (エンコーディングを変更する必要はなく、別のコンテナーが必要なだけです) に変換するオンザフライ コンバーターであり、上記の 2 つのモジュールを橋渡しします。
私が知る限り、これが iPhone のハードウェア ビデオ エンコーダーを利用する唯一の方法であるため、私はこのアプローチを採用しています (このトピックについてかなりの調査を行い、99% 確信しています。私が間違っているかどうかを知ってください)。
何人かは ffmpeg を提案しましたが、私は MIT ライセンス (もしあれば) ではるかに小さなコードを使用するか、ゼロから何かを作成します (そして MIT ライセンスでオープンソース化します)。
私はこのメディア コンテナのことはまったく初めてなので、誰かが正しい方向性 (サンプル コード、オープン ソース、ドキュメントなど) を教えてくれたら本当にありがたいです。