rtsp フィードをストリーミングできる iOS アプリケーションを開発しようとしています。RTSPPlay サンプルプログラムのおかげで、それができました。1 つのフレームだけが画面に表示されるのではなく、2 つ以上のフレームを同時に表示して、異なるカメラからのフィードをストリーミングするように、アプリをカスタマイズしたいと考えています。
私は Android プログラミングの経験が豊富なので、iOS プログラミングにはあまり触れていません。そのため、希望するカスタマイズをどのように実現できるかについては、少しわかりません。
私が試したのは、複数のフレームを表すために、FrameExtractor、UIImageView の複数のインスタンスを作成したことです。私はこのようにしました:
self.video2 = [[FrameExtractor alloc] initWithVideo:@"<rtsp feed 2>"];
self.video2.cgimageDelegate = self;
video2.outputWidth = 320;
video2.outputHeight = 240;
[video2 setupCgimageSession];
NSLog(@"video2 duration: %f",video2.duration);
NSLog(@"video2 size: %d x %d", video2.sourceWidth, video2.sourceHeight);
および (void)didOutputCGImageBuffer:(NSTimer *)timer 内で、私もこれを行いました:
[video2 stepFrame];
imageView2.image = video2.currentImage;
ただし、すべてのフレームは同じフィードをストリーミングします。これは、FrameExtractor の最後のインスタンスで示した rtsp フィードです。
これに対する適切なアプローチは何でしょうか?