3

私は、OpenCV を使用する android 用のアプリに取り組んでいます。

私は mp4 ビデオ ファイルを持っています。そこから 1920x1080 の 300 フレームを読み取り、それらに対して画像処理操作を行う必要があります。

大規模な検索の後、最後にこの例のみを見つけました。

私の問題は、フレームを読み取ってデバイスのメモリに保存するか、OpenCV マトリックスに変換するだけの簡単なことです。

これは私の試みです(最後に説明してください):

public void run() {

        extractor = new MediaExtractor();
        extractor.setDataSource(SAMPLE);

        for (int i = 0; i < extractor.getTrackCount(); i++) {
            MediaFormat format = extractor.getTrackFormat(i);
            String mime = format.getString(MediaFormat.KEY_MIME);
            if (mime.startsWith("video/")) {
                extractor.selectTrack(i);
                decoder = MediaCodec.createDecoderByType(mime);
                decoder.configure(format, surface, null, 0);

                break;
            }
        }

        if (decoder == null) {
            Log.e("DecodeActivity", "Can't find video info!");
            return;
        }

        decoder.start();

        ByteBuffer[] inputBuffers = decoder.getInputBuffers();
        ByteBuffer[] outputBuffers = decoder.getOutputBuffers();

        BufferInfo info = new BufferInfo();

        boolean isEOS = false;
        long startMs = System.currentTimeMillis();

        while (!Thread.interrupted()) {
            if (!isEOS) {
                int inIndex = decoder.dequeueInputBuffer(10000);
                if (inIndex >= 0) {
                    ByteBuffer buffer = inputBuffers[inIndex];
                    int sampleSize = extractor.readSampleData(buffer, 0);
                    if (sampleSize < 0) {
                        Log.d("DecodeActivity", "InputBuffer BUFFER_FLAG_END_OF_STREAM");
                        decoder.queueInputBuffer(inIndex, 0, 0, 0, MediaCodec.BUFFER_FLAG_END_OF_STREAM);
                        isEOS = true;
                    } else {
                        decoder.queueInputBuffer(inIndex, 0, sampleSize, extractor.getSampleTime(), 0);
                        extractor.advance();
                    }

                }
            }
            int outIndex = decoder.dequeueOutputBuffer(info, 10000);
            switch (outIndex) {
            case MediaCodec.INFO_OUTPUT_BUFFERS_CHANGED:
                Log.d("DecodeActivity", "INFO_OUTPUT_BUFFERS_CHANGED");
                outputBuffers = decoder.getOutputBuffers();
                break;
            case MediaCodec.INFO_OUTPUT_FORMAT_CHANGED:
                Log.d("DecodeActivity", "New format " + decoder.getOutputFormat());
                break;
            case MediaCodec.INFO_TRY_AGAIN_LATER:
                Log.d("DecodeActivity", "dequeueOutputBuffer timed out!");
                break;
            default:
                ByteBuffer buffer = outputBuffers[outIndex];

                Log.v("DecodeActivity", "We can't use this buffer but render it due to the API limit, " + buffer);
                byte[] b = new byte[buffer.remaining()];

                // We use a very simple clock to keep the video FPS, or the video
                // playback will be too fast
                while (info.presentationTimeUs / 1000 > System.currentTimeMillis() - startMs) {
                    try {
                        sleep(10);
                    } catch (InterruptedException e) {
                        e.printStackTrace();
                        break;
                    }
                }
                decoder.releaseOutputBuffer(outIndex, true);
                break;
            }

            // All decoded frames have been rendered, we can stop playing now
            if ((info.flags & MediaCodec.BUFFER_FLAG_END_OF_STREAM) != 0) {
                Log.d("DecodeActivity", "OutputBuffer BUFFER_FLAG_END_OF_STREAM");
                break;
            }
        }

        decoder.stop();
        decoder.release();
        extractor.release();

    }

この例では、フレームを読み取り、それらを Surface として表示します。

ビットマップ/マトリックスとして保存したり、デバイスに保存したりするには、何を変更する必要がありますか?

ありがとう

4

1 に答える 1

1

あなたのコードには 2 つのパスがあります。

  1. Android 4.3 以降では、fadden が提案したようにGrafikaの例を使用できます。MediaCodec デコーダーは、configure メソッドにサーフェスを使用し、レンダリングがサーフェスに行われるように、boolean の render が「true」に設定された releaseOutputBuffer を使用する必要があります。次に、MediaCodec エンコーダーがビデオとしてエンコードするために使用するサーフェスにレンダリングしながら、シェーダーを使用して操作を実行できます。この解決策は、いくつかの例外を除いてほとんどのデバイスで高速ですが、まだ新しく、デバイスのハードウェアにバグが残っています。
  2. より遅いソリューションを受け入れることができる場合、OpenCV にはAndroidでの優れたポート/統合があり、コードサンプルとすべてがあり、ffmpeg を使用して h264 にエンコードすることさえできます。デコードには、引き続き MediaCodec を使用できます (結果をサーフェスにレンダリングする場合、データを CPU に戻すには遅い glReadPixels を使用する必要があります)。これは、以前のバージョンの Android でも機能します。

いずれにせよ、苦労せずにはいられないので、時間、忍耐、エネルギーが必要です。

于 2014-12-11T16:17:18.440 に答える