0

rtsp フィードをストリーミングできる iOS アプリケーションを開発しようとしています。RTSPPlay サンプルプログラムのおかげで、それができました。1 つのフレームだけが画面に表示されるのではなく、2 つ以上のフレームを同時に表示して、異なるカメラからのフィードをストリーミングするように、アプリをカスタマイズしたいと考えています。

私は Android プログラミングの経験が豊富なので、iOS プログラミングにはあまり触れていません。そのため、希望するカスタマイズをどのように実現できるかについては、少しわかりません。

私が試したのは、複数のフレームを表すために、FrameExtractor、UIImageView の複数のインスタンスを作成したことです。私はこのようにしました:

self.video2 = [[FrameExtractor alloc] initWithVideo:@"<rtsp feed 2>"];

self.video2.cgimageDelegate = self;

video2.outputWidth = 320;

video2.outputHeight = 240;

[video2 setupCgimageSession];

NSLog(@"video2 duration: %f",video2.duration);

NSLog(@"video2 size: %d x %d", video2.sourceWidth, video2.sourceHeight);

および (void)didOutputCGImageBuffer:(NSTimer *)timer 内で、私もこれを行いました:

[video2 stepFrame];

imageView2.image = video2.currentImage;

ただし、すべてのフレームは同じフィードをストリーミングします。これは、FrameExtractor の最後のインスタンスで示した rtsp フィードです。

これに対する適切なアプローチは何でしょうか?

4

1 に答える 1

0

これを参照してください https://github.com/durfu/DFURTSPPlayer

これは、使用しているのと同じ概念の実用的なサンプルです。次に、異なる RTSPStreams を使用して RTSPPlayer の複数のインスタンスを作成すると、それらを表示できるようになります。

于 2014-05-21T13:52:57.957 に答える