3

jcodec を使用して、バッファリングされた画像を h264 ムービーにエンコードしようとしています。私だけがサンプルコードをどこにも見つけることができませんでした。

過去にこのライブラリを使用したことがある人はいますか? ライブラリに付属の javadoc でさえ、使用法に関する情報が含まれていません。例を見たことがある場合、または洞察を提供できる場合は、お知らせください。

http://jcodec.org/

前もって感謝します

4

1 に答える 1

4

JCodec は H.264 のエンコードをサポートしていません。ただし、x264 ライブラリまたは ffmpeg で JNA を使用できます。このルートを選択した場合、次のスレッドが役に立つかもしれません: x264 C API を使用して一連の画像を H264 にエンコードする方法は? .

[更新]バージョン 0.1.0 の時点で、JCodec は H.264 エンコーディングをサポートしています。MP4 コンテナで一連の画像を H.264 ビデオに変換するために使用できる単純なクラスを次に示します。

public class SequenceEncoder {
    private SeekableByteChannel ch;
    private Picture toEncode;
    private RgbToYuv420 transform;
    private H264Encoder encoder;
    private ArrayList<ByteBuffer> spsList;
    private ArrayList<ByteBuffer> ppsList;
    private CompressedTrack outTrack;
    private ByteBuffer _out;
    private int frameNo;
    private MP4Muxer muxer;

    public SequenceEncoder(File out) throws IOException {
        this.ch = NIOUtils.writableFileChannel(out);

        // Transform to convert between RGB and YUV
        transform = new RgbToYuv420(0, 0);

        // Muxer that will store the encoded frames
        muxer = new MP4Muxer(ch, Brand.MP4);

        // Add video track to muxer
        outTrack = muxer.addTrackForCompressed(TrackType.VIDEO, 25);

        // Allocate a buffer big enough to hold output frames
        _out = ByteBuffer.allocate(1920 * 1080 * 6);

        // Create an instance of encoder
        encoder = new H264Encoder();

        // Encoder extra data ( SPS, PPS ) to be stored in a special place of
        // MP4
        spsList = new ArrayList<ByteBuffer>();
        ppsList = new ArrayList<ByteBuffer>();

    }

    public void encodeImage(BufferedImage bi) throws IOException {
        if (toEncode == null) {
            toEncode = Picture.create(bi.getWidth(), bi.getHeight(), ColorSpace.YUV420);
        }

        // Perform conversion
        for (int i = 0; i < 3; i++)
            Arrays.fill(toEncode.getData()[i], 0);
        transform.transform(AWTUtil.fromBufferedImage(bi), toEncode);

        // Encode image into H.264 frame, the result is stored in '_out' buffer
        _out.clear();
        ByteBuffer result = encoder.encodeFrame(_out, toEncode);

        // Based on the frame above form correct MP4 packet
        spsList.clear();
        ppsList.clear();
        H264Utils.encodeMOVPacket(result, spsList, ppsList);

        // Add packet to video track
        outTrack.addFrame(new MP4Packet(result, frameNo, 25, 1, frameNo, true, null, frameNo, 0));

        frameNo++;
    }

    public void finish() throws IOException {
        // Push saved SPS/PPS to a special storage in MP4
        outTrack.addSampleEntry(H264Utils.createMOVSampleEntry(spsList, ppsList));

        // Write MP4 header and finalize recording
        muxer.writeHeader();
        NIOUtils.closeQuietly(ch);
    }

    public static void main(String[] args) throws IOException {
        SequenceEncoder encoder = new SequenceEncoder(new File("video.mp4"));
        for (int i = 1; i < 100; i++) {
            BufferedImage bi = ImageIO.read(new File(String.format("folder/img%08d.png", i)));
            encoder.encodeImage(bi);
        }
        encoder.finish();
    }
}

[更新 1]このコードを使用して、インターリーブされた YUV 4:2:0 バイト配列から JCodec 画像に変換します。

byte[] input = ...
Picture output = Picture.create(width, height, ColorSpace.YUV420);
int[] d0 = output.getData()[0], d1 = output.getData()[1], d2 = output.getData()[2];

for(int i = 0, j0 = 0, j1 = 0, j2 = 0; i < input.length; i += 6, j0 += 4, ++j1 , ++j2) {
    d0[j0    ] = input[i    ] & 0xff;
    d0[j0 + 1] = input[i + 1] & 0xff;
    d0[j0 + 2] = input[i + 2] & 0xff;
    d0[j0 + 3] = input[i + 3] & 0xff;

    d1[j1    ] = input[i + 4] & 0xff;
    d2[j2    ] = input[i + 5] & 0xff;
}
于 2013-01-02T17:22:29.067 に答える