libswscale を使用して YUV フレームを RGB に変換しようとしています。
これが私のコードです:
AVFrame *RGBFrame;
SwsContext *ConversionContext;
ConversionContext = sws_getCachedContext(NULL, FrameWidth, FrameHeight, AV_PIX_FMT_YUV420P, FrameWidth, FrameHeight, AV_PIX_FMT_RGB24, SWS_BILINEAR, 0, 0, 0);
RGBFrame = av_frame_alloc();
avpicture_fill((AVPicture *)RGBFrame, &FillVect[0], AV_PIX_FMT_RGB24, FrameWidth, FrameHeight);
sws_scale(ConversionContext, VideoFrame->data, VideoFrame->linesize, 0, VideoFrame->height, RGBFrame->data, RGBFrame->linesize);
私のプログラムは、sws_scale 関数で SEGFAULT を実行します。
VideoFrame は、デコードされたフレームを保持する AVFrame 構造体です。
これは、YUV フレームが次のような配列を返す avcodec_decode_video2 から来ているためだと思います。
VideoFrame->data[0] // Y array, linesize = frame width
VideoFrame->data[1] // U array, linesize = frame width/2
VideoFrame->data[2] // V array, linesize = frame width/2
YUV420P には理論的には 1 つの平面しかありません (ウィキペディアによると、YUV420P は平面フォーマットであり、Y、U、V データがグループ化されています)。そのため、swscaleを使用して、Y、U、VデータがRGB24に分離されている配列を変換する方法がわかりません。
私を助けてください、ありがとう:)