問題タブ [ffmpeg]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c - libavcodecでエンコードされたビデオをAVIファイル形式で保存します
関数を呼び出すことにより、libavcodecを使用してビデオフレームをエンコードできavcodec_encode_video
ます。これらのエンコードされたフレームをAVIファイルに保存するにはどうすればよいですか?
mp3 - ffmpegを使用してmp3をxからx+nにトリミングするにはどうすればよいですか?
この質問に続いて、私はffmpegを使用してMP3をトリミングすることにしました。別の質問で、私はそれを行うこの方法を見つけました:
問題は、最初の30秒間はトリミングしたくないということです。つまり、30秒から100秒のように、xからx+nまでトリミングしたいのです。どうすればこれを行うことができますか?
私はffmpegの男性を読んでいますが、特にffmpegについて発見したばかりで、オーディオ/ビデオ編集ソフトウェアに精通していないため、これは実際には簡単ではありません。
ffmpeg - クローズドソースアプリケーションでLGPL/GPLソフトウェアを動的に呼び出すことはできますか?
一部のコンポーネントには、 GNU劣等一般公衆利用許諾契約書バージョン2.1 GNU General Public License(GPL)バージョン2の下にあるツール( ffmpeg)を使用したいと思います。
そうするために、私はそれを私のソフトウェアでそのように呼ぶだけです:
私はそれを変更しません。私はWindows用のソフトウェアのビルドバージョンのみを使用します。
ウィキペディアによると:
GPLに関連する重要な論争は、非GPLソフトウェアをGPLライブラリに動的にリンクできるかどうかです。GPLは、GPLに基づくすべての派生コードがGPLに含まれている必要があることを明確に示しています。静的リンクは二次的著作物を生成することは理解されていますが、GPLコードに動的にリンクする実行可能ファイルを二次的著作物と見なすべきかどうかは明確ではありません(弱いコピーレフトを参照)。フリー/オープンソースソフトウェアコミュニティは、この問題で分かれています。FSFは、実行可能ファイルとGPLコードが「互いに関数呼び出しを行い、データ構造を共有する」場合、そのような実行可能ファイルは実際に二次的著作物であると主張します。
私はこれらすべての合法的な事柄に本当に混乱しています。私も自分のプロジェクトをLGPLにしてソースをリリースしたでしょうが、これは私次第ではありません。
だから問題は、私が今しているようにそれを使うことができるのか、それとも弁護士の軍隊によって処刑されるのかということです。
ffmpeg - ffmpeg: 異なるマシン間で異なる動作をする同じコンパイル
2 つの Ubuntu hardy ボックスで ffmpeg を使用しています。両方とも、Medibuntu からの FFMPEG のコンパイル済みバイナリの同じバージョンを持っています。3GP を FLV に変換すると、一方のマシンでは ffmpeg が音を歪ませ、もう一方のマシンでは問題なく動作します。
バージョンとフォーマットのオプションを確認しましたが、それらはすべてマシン間で同一です。
唯一の違いは、1 台のマシンが 64 ビットで、もう 1 台が 32 ビットであることです。これが問題の原因でしょうか? その場合、どうすれば解決できますか?
video - FFmpeg: "[h264 @]AVC: n+6 ではなく n バイトのみを消費しました"
HD ビデオを変換すると、「[h264 @ ]AVC: n+6 ではなく n バイトのみ消費されました」というメッセージが表示されます。
問題を解決する方法はありますか? または、これらのメッセージを取り除くオプションはありますか?
ありがとうございました。
linux - Linuxグラフィックツールからの画像スライドショーの作成
4つの小さなjpeg(128px x 128px)とLinuxコマンドライングラフィックツールを使用して、画像のスライドショーをビデオファイルとして作成するにはどうすればよいですか?スライドショーのトランジションを次のように変更する必要があります。
- 黒へ/からフェード
- 次の画像にフェードしながら左右にスライドします
ご興味のある方は、携帯電話に入れて不動産物件を掲載できる動画を制作する予定です。(Ogg Theoraを独自のモバイル形式に変換するテクノロジーはすでにあります。)
python - FFMPEGおよびPythonsサブプロセス
のGUIを作成しようとしていFFMPEG
ます。私はpythonsサブプロセスを使用して、必要なすべての変換に対してffmpegプロセスを作成しています。これは問題なく動作しますが、失敗したかどうかなど、変換の進行状況を取得する方法も必要です。次のようにプロセスの標準にアクセスすることで、これを実行できると考えました。
呼び出しsubprocess.Popen()
そして読んでstdout
:
これは機能しますが、ffmpegのステータスは表示されません。私はそれがffmpegがそれをリフレッシュする方法と関係があると思います。アクセスする方法はありますか?
cocoa - libswscale から PIX_FMT_YUYV422 を取得する
Cocoa でさまざまな ffmpeg ライブラリを使用する方法を学習しようとしています。また、Core Video を使用してフレームを表示しようとしています。CVコールバックが機能するようになったようで、後でCore Imageで描画するCVImageBufferRefに入れようとするフレームを取得します。
問題は、PIX_FMT_YUYV422 を libswscale で動作させようとしているところですが、ピクセル形式を PIX_FMT_YUV420P 以外に変更するとすぐに、EXC_BAD_ACCESS でクラッシュします。
YUV420P を使用している限り、プログラムは実行されますが、正しく表示されません。ピクセル形式がサポートされていないのではないかと疑ったので、PIX_FMT_YUYV422 を試してみました。
以前に実行して、PIX_FMT_RGB24 で PPM ファイルを正常に書き込んだことがあります。なんらかの理由でクラッシュしてしまい、何が問題なのかわかりません。
私はここで少し頭を悩ませていますが、それが私が学ぶことを好む方法です. :)
AVFrames を割り当てる方法は次のとおりです。
次に、次のように swscale で実行しようとします。
最後に、Core Image で使用するピクセル バッファーに書き込もうとします。
420P で実行されますが、ピクセル バッファーの kYUVSPixelformat と一致しません。また、YUV420 を受け入れないことも理解しています。
どんなに小さなことでも、私が苦労するのを助けるかもしれないので、私は本当に助けていただければ幸いです. :)