jcodec を使用して、バッファリングされた画像を h264 ムービーにエンコードしようとしています。私だけがサンプルコードをどこにも見つけることができませんでした。
過去にこのライブラリを使用したことがある人はいますか? ライブラリに付属の javadoc でさえ、使用法に関する情報が含まれていません。例を見たことがある場合、または洞察を提供できる場合は、お知らせください。
前もって感謝します
jcodec を使用して、バッファリングされた画像を h264 ムービーにエンコードしようとしています。私だけがサンプルコードをどこにも見つけることができませんでした。
過去にこのライブラリを使用したことがある人はいますか? ライブラリに付属の javadoc でさえ、使用法に関する情報が含まれていません。例を見たことがある場合、または洞察を提供できる場合は、お知らせください。
前もって感謝します
JCodec は H.264 のエンコードをサポートしていません。ただし、x264 ライブラリまたは ffmpeg で JNA を使用できます。このルートを選択した場合、次のスレッドが役に立つかもしれません: x264 C API を使用して一連の画像を H264 にエンコードする方法は? .
[更新]バージョン 0.1.0 の時点で、JCodec は H.264 エンコーディングをサポートしています。MP4 コンテナで一連の画像を H.264 ビデオに変換するために使用できる単純なクラスを次に示します。
public class SequenceEncoder {
private SeekableByteChannel ch;
private Picture toEncode;
private RgbToYuv420 transform;
private H264Encoder encoder;
private ArrayList<ByteBuffer> spsList;
private ArrayList<ByteBuffer> ppsList;
private CompressedTrack outTrack;
private ByteBuffer _out;
private int frameNo;
private MP4Muxer muxer;
public SequenceEncoder(File out) throws IOException {
this.ch = NIOUtils.writableFileChannel(out);
// Transform to convert between RGB and YUV
transform = new RgbToYuv420(0, 0);
// Muxer that will store the encoded frames
muxer = new MP4Muxer(ch, Brand.MP4);
// Add video track to muxer
outTrack = muxer.addTrackForCompressed(TrackType.VIDEO, 25);
// Allocate a buffer big enough to hold output frames
_out = ByteBuffer.allocate(1920 * 1080 * 6);
// Create an instance of encoder
encoder = new H264Encoder();
// Encoder extra data ( SPS, PPS ) to be stored in a special place of
// MP4
spsList = new ArrayList<ByteBuffer>();
ppsList = new ArrayList<ByteBuffer>();
}
public void encodeImage(BufferedImage bi) throws IOException {
if (toEncode == null) {
toEncode = Picture.create(bi.getWidth(), bi.getHeight(), ColorSpace.YUV420);
}
// Perform conversion
for (int i = 0; i < 3; i++)
Arrays.fill(toEncode.getData()[i], 0);
transform.transform(AWTUtil.fromBufferedImage(bi), toEncode);
// Encode image into H.264 frame, the result is stored in '_out' buffer
_out.clear();
ByteBuffer result = encoder.encodeFrame(_out, toEncode);
// Based on the frame above form correct MP4 packet
spsList.clear();
ppsList.clear();
H264Utils.encodeMOVPacket(result, spsList, ppsList);
// Add packet to video track
outTrack.addFrame(new MP4Packet(result, frameNo, 25, 1, frameNo, true, null, frameNo, 0));
frameNo++;
}
public void finish() throws IOException {
// Push saved SPS/PPS to a special storage in MP4
outTrack.addSampleEntry(H264Utils.createMOVSampleEntry(spsList, ppsList));
// Write MP4 header and finalize recording
muxer.writeHeader();
NIOUtils.closeQuietly(ch);
}
public static void main(String[] args) throws IOException {
SequenceEncoder encoder = new SequenceEncoder(new File("video.mp4"));
for (int i = 1; i < 100; i++) {
BufferedImage bi = ImageIO.read(new File(String.format("folder/img%08d.png", i)));
encoder.encodeImage(bi);
}
encoder.finish();
}
}
[更新 1]このコードを使用して、インターリーブされた YUV 4:2:0 バイト配列から JCodec 画像に変換します。
byte[] input = ...
Picture output = Picture.create(width, height, ColorSpace.YUV420);
int[] d0 = output.getData()[0], d1 = output.getData()[1], d2 = output.getData()[2];
for(int i = 0, j0 = 0, j1 = 0, j2 = 0; i < input.length; i += 6, j0 += 4, ++j1 , ++j2) {
d0[j0 ] = input[i ] & 0xff;
d0[j0 + 1] = input[i + 1] & 0xff;
d0[j0 + 2] = input[i + 2] & 0xff;
d0[j0 + 3] = input[i + 3] & 0xff;
d1[j1 ] = input[i + 4] & 0xff;
d2[j2 ] = input[i + 5] & 0xff;
}