kinect から深度カメラ フィードを取得し、それを iPhone アプリにストリーミングしています。kinect 深度画像 (30 fps) から作成されたすべてのフレームの jpeg を保存し、それらをローカル ディスクに保存できる段階になりました。これをffmpegでmpegに変換できました。
私の質問は、どうすればこれを私のiPhoneでライブで見ることができますか? 基本的には、キネクトから来ているので、iPhoneでライブで見たいと思っています。
HTTP ライブ ストリーミングを使用し、セグメンターを使用してリンゴの HttpLiveStreaming 機能を使用する必要がありますか? または、生の jpeg 画像ファイルを何らかの方法でディスクに保存し、電話で画像を循環させるだけでなく、ストリーミングすることはできますか?
iphone (facetime/skype など) でビデオ会議がどのように実現されているのか疑問に思っています。ビデオプレーヤー内で再生されたくないので、ライブコンテンツを画面に表示したいだけです。
何か案は?前もって感謝します