それはトリッキーなものです。できるはずですが、簡単ではありません。
ライブではない方法の 1 つ (ニーズには応えませんが、言及する価値があります) は、カメラからキャプチャしてビデオ ファイルに保存することです。その方法については、AV Foundation Guide を参照してください。保存したら、HTTP ライブ ストリーミング セグメンターを使用して適切なセグメントを生成できます。Apple には Mac OSX 用のアプリケーションがありますが、iOS に適応できるオープン ソース バージョンもあります。さらに、これらのセグメントを提供するために http サーバーを実行する必要もあります。適応できる多くのhttpサーバーがあります。
しかし、それをライブで行うには、まず既にわかっているように、カメラからフレームを収集する必要があります。それらを取得したら、それらを h.264 に変換します。そのためには、ffmpeg が必要です。基本的には、画像を ffmpeg の AVPicture に押し込んで、ストリームを作成します。次に、ライブ ストリーミング セグメンターがそのストリームをライブ ストリーミング h.264 デバイスとして認識できるように、そのストリームを管理する必要があります。どうやってそれを行うのかわかりません。それは深刻な作業のように聞こえます。それが完了したら、そのストリームを提供する http サーバーが必要です。
実際には、RTP/RTSP ベースのストリームを代わりに使用する方が簡単かもしれません。そのアプローチは RTP のオープン ソース バージョンでカバーされており、ffmpeg はそれを完全にサポートしています。http ライブ ストリーミングではありませんが、十分に機能します。