0

kinect から深度カメラ フィードを取得し、それを iPhone アプリにストリーミングしています。kinect 深度画像 (30 fps) から作成されたすべてのフレームの jpeg を保存し、それらをローカル ディスクに保存できる段階になりました。これをffmpegでmpegに変換できました。

私の質問は、どうすればこれを私のiPhoneでライブで見ることができますか? 基本的には、キネクトから来ているので、iPhoneでライブで見たいと思っています。

HTTP ライブ ストリーミングを使用し、セグメンターを使用してリンゴの HttpLiveStreaming 機能を使用する必要がありますか? または、生の jpeg 画像ファイルを何らかの方法でディスクに保存し、電話で画像を循環させるだけでなく、ストリーミングすることはできますか?

iphone (facetime/skype など) でビデオ会議がどのように実現されているのか疑問に思っています。ビデオプレーヤー内で再生されたくないので、ライブコンテンツを画面に表示したいだけです。

何か案は?前もって感謝します

4

1 に答える 1

0

JPEGs are typically too large to stream in real time -- I've found it sticks around 5 fps on Wi-fi. If you take your mpeg outputs in small chunks (say, 5-10 sec of video in each chunk) and use ffmpeg to convert them to .ts containers (mpeg2 transport stream), then it's pretty easy to dynamically write an m3u8 index file that contains a list of the chunks in order. Point a UIWebView at the URL for the m3u8 file, and the stream will start playing, although it will use the built-in video player. You can use other media/AV classes to watch your stream, though, I believe.

于 2012-02-14T07:42:11.133 に答える