0

MediaRecorder クラスを使用して、Android 携帯のカメラからコンピューターにライブ ビデオをストリーミングしています。

recorder.setCamera(mCamera);
recorder.setVideoSource(MediaRecorder.VideoSource.CAMERA);
recorder.setOutputFormat(MediaRecorder.OutputFormat.THREE_GPP);          
recorder.setOutputFile(uav_UDP_Client.pfd.getFileDescriptor());                     
recorder.setVideoEncoder(MediaRecorder.VideoEncoder.H264);

それが基本的な考え方です。ですので、この流れをリアルタイムでお見せしたいと思います。私の計画は、FFMpeg を使用して最新のフレームを .bmp に変換し、新しいフレームがあるたびに C# プログラムで .bmp を表示することです。

問題は、録音を停止するまでヘッダーがないことです。なのでヘッダーがないとFFMpegは使えません。私はspydroidとRTPの使用を見てきましたが、さまざまな理由でこの方法を使用したくありません.

これを簡単に行う方法についてのアイデアはありますか?

4

1 に答える 1

0

MPEG2 TSをストリーミングして画面上で再生することを検討するか、H.264データをストリーミングRTPしてクライアントを使用して同じものをデコードして表示することもできます。

Android には、ストリームRTPのパケット化を実行し、ネットワーク経由でストリーミングするサンプル実行可能ファイルがあります。H.264の詳細についてはMyTransmitter、このファイルを参照してください。これは、ソリューションへの参照として役立ちます。

追加情報MiracastAndroid 4.2.0 リリース以降では、 orと 呼ばれるフレームワークによってサポートされている同様の機能があり、これはフォーラムWi-Fi Displayによって標準化されてWi-Fiいますが、これは少し複雑なユースケースです。

于 2013-04-10T14:29:38.410 に答える