13

私はこれが古い質問であることを知っており、これについて多くのことを調査しましたが、適切な解決策がないようです. これを行うには、次のようないくつかの方法があります。

  • FFmpeg の使用 (ただし、ネイティブ コードに依存するため、私にとってはオプションではありません)

  • Xuggler API (上記と同じ理由)

複数の画像(ドローアブルまたはビットマップなど)をAndroidフォンで再生できるビデオファイルに変換できるソリューションまたは提案を探しています。私はすでに3日間これに固執しており、解決策を急いで見つけています。

また、画像をビデオに変換する代わりに、私の問題の代替ソリューションを探しています。実際にはアプリケーションの画面とは別に、Android の携帯電話の画面をキャプチャして記録することは可能ですか? (USBケーブルを使用してコンピューターなどに接続しないでください。調査したときに多くのことを見てきましたが、それは私が探しているものではありません)。

私の英語は私の母国語ではありません。

4

1 に答える 1

7

JCodec ( http://jcodec.org ) と呼ばれる純粋な Java オープン ソース ライブラリを使用できます。以下のクラスは、JCodec 低レベル API を使用して、一連の画像を MP4 クリップ ( H.264 ) に変換する方法を示しています。

public class SequenceEncoder {
    private SeekableByteChannel ch;
    private Picture toEncode;
    private RgbToYuv420 transform;
    private H264Encoder encoder;
    private ArrayList<ByteBuffer> spsList;
    private ArrayList<ByteBuffer> ppsList;
    private CompressedTrack outTrack;
    private ByteBuffer _out;
    private int frameNo;
    private MP4Muxer muxer;

    public SequenceEncoder(File out) throws IOException {
        this.ch = NIOUtils.writableFileChannel(out);

        // Transform to convert between RGB and YUV
        transform = new RgbToYuv420(0, 0);

        // Muxer that will store the encoded frames
        muxer = new MP4Muxer(ch, Brand.MP4);

        // Add video track to muxer
        outTrack = muxer.addTrackForCompressed(TrackType.VIDEO, 25);

        // Allocate a buffer big enough to hold output frames
        _out = ByteBuffer.allocate(1920 * 1080 * 6);

        // Create an instance of encoder
        encoder = new H264Encoder();

        // Encoder extra data ( SPS, PPS ) to be stored in a special place of
        // MP4
        spsList = new ArrayList<ByteBuffer>();
        ppsList = new ArrayList<ByteBuffer>();

    }

    public void encodeImage(BufferedImage bi) throws IOException {
        if (toEncode == null) {
            toEncode = Picture.create(bi.getWidth(), bi.getHeight(), ColorSpace.YUV420);
        }

        // Perform conversion
        for (int i = 0; i < 3; i++)
            Arrays.fill(toEncode.getData()[i], 0);
        transform.transform(AWTUtil.fromBufferedImage(bi), toEncode);

        // Encode image into H.264 frame, the result is stored in '_out' buffer
        _out.clear();
        ByteBuffer result = encoder.encodeFrame(_out, toEncode);

        // Based on the frame above form correct MP4 packet
        spsList.clear();
        ppsList.clear();
        H264Utils.encodeMOVPacket(result, spsList, ppsList);

        // Add packet to video track
        outTrack.addFrame(new MP4Packet(result, frameNo, 25, 1, frameNo, true, null, frameNo, 0));

        frameNo++;
    }

    public void finish() throws IOException {
        // Push saved SPS/PPS to a special storage in MP4
        outTrack.addSampleEntry(H264Utils.createMOVSampleEntry(spsList, ppsList));

        // Write MP4 header and finalize recording
        muxer.writeHeader();
        NIOUtils.closeQuietly(ch);
    }
}

次に、次のように使用できます。

public static void main(String[] args) throws IOException {
    SequenceEncoder encoder = new SequenceEncoder(new File("video.mp4"));
    for (int i = 1; i < 100; i++) {
        BufferedImage bi = ImageIO.read(new File(String.format("img%08d.png", i)));
        encoder.encodeImage(bi);
    }
    encoder.finish();
}
于 2013-05-13T19:28:07.200 に答える