2

フレーム/ビデオを iPhone カメラからインターネットに (ライブ) ストリーミングできるようにしたいと考えています。AVCaptureSession の beginConfiguration と commitConfiguration を使用して可能であることをThread ( iPhone からビデオをストリーミング) で確認しました。しかし、このタスクの設計を開始する方法がわかりません。ビデオを iPhone にストリーミングする方法については、すでに多くのチュートリアルがありますが、実際には私が探しているものではありません。

私をさらに助けることができるアイデアを教えてください。

4

1 に答える 1

3

それはトリッキーなものです。できるはずですが、簡単ではありません。

ライブではない方法の 1 つ (ニーズには応えませんが、言及する価値があります) は、カメラからキャプチャしてビデオ ファイルに保存することです。その方法については、AV Foundation Guide を参照してください。保存したら、HTTP ライブ ストリーミング セグメンターを使用して適切なセグメントを生成できます。Apple には Mac OSX 用のアプリケーションがありますが、iOS に適応できるオープン ソース バージョンもあります。さらに、これらのセグメントを提供するために http サーバーを実行する必要もあります。適応できる多くのhttpサーバーがあります。

しかし、それをライブで行うには、まず既にわかっているように、カメラからフレームを収集する必要があります。それらを取得したら、それらを h.264 に変換します。そのためには、ffmpeg が必要です。基本的には、画像を ffmpeg の AVPicture に押し込んで、ストリームを作成します。次に、ライブ ストリーミング セグメンターがそのストリームをライブ ストリーミング h.264 デバイスとして認識できるように、そのストリームを管理する必要があります。どうやってそれを行うのかわかりません。それは深刻な作業のように聞こえます。それが完了したら、そのストリームを提供する http サーバーが必要です。

実際には、RTP/RTSP ベースのストリームを代わりに使用する方が簡単かもしれません。そのアプローチは RTP のオープン ソース バージョンでカバーされており、ffmpeg はそれを完全にサポートしています。http ライブ ストリーミングではありませんが、十分に機能します。

于 2011-02-19T07:07:03.563 に答える