問題タブ [libavcodec]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c++ - オーディオ付きLibavcodec
私はlibavcodecでプログラミングすることを学んでいます。しかし、私は立ち往生しています。私が使用しているチュートリアルはすべてビデオファイルであり、オーディオファイルが必要です。私はUbuntuを使用しています。
AVCodecContext
オーディオストリームからどのように読み取る必要がありますか?
ちなみに、オーディオ付きのlibavcodecに関する優れたチュートリアルを知っている人はいますか?何も見つかりませんでした。
media - Media Foundation:コンテナなしでH264フレームをデコードして表示する
シナリオは次のとおりです。私のWindowsクライアントアプリは、カスタムの方法(独自のプロトコル)で、コンテナーなしでネットワークソースからH264エンコードされたフレームを取得します。フレームのフォーマットは既知です。フレームをデコードしてビデオを表示する必要があります。HDストリーミング中は再生が完璧である必要がありますが、他のシナリオでは低遅延のオプションがあります。
現在、ffmpegのlibavcodecを使用してフレームをデコードし、StretchBltを使用して手動で画面に表示しています。Media Foundationへの移行を検討していますが、私にはわかりません。コンテナを使用しないソースを使用することは可能ですか?もしそうなら、私はカスタムのものを作成する必要がありますか?
MediaFoundationを使用する代わりの方法も歓迎します。私が現在使用している方法の主な問題は、特にHDビデオのパフォーマンスが十分でないことです。
windows - libx264-HDおよびSDキャプチャ用のAVCodecContextの設定
AVCodecContext
HDをリアルタイム(1080i)とSD(720 x 576)でキャプチャするために、適切に構成しようとしています。これもインターレースです。私はWindowsOSでffmpegstaticlibでlibx264を使用しています。誰かが、、、および他のすべてのAVCodecContextのメンバーを手伝ってflags
くれるgop_size
ならmax_b_frames
...
CODEC_FLAG_INTERLACED_ME | CODEC_FLAG_INTERLACED_DCT
たとえば、フラグを設定する必要があると思います。ただし、必要なのは、これらすべてを設定する方法の全体像です。
windows - x264 & libavcodec
Windows で x264 エンコーダーを使用して ffmpeg 静的ライブラリーをビルドしようとしてかなりの時間を費やした後、それを使用していくつかの例を作成するためにさらに時間を費やしました。もちろん、ビルド方法、使用方法、ブラブラについての「説明書」は山ほどありますが、Windows ではそれらのどれも機能しません。ここでは、Linux の方が有利な立場にあると思います。さて、莫大な金額の質問は、「そのすべての目的は何ですか?」です。これは Windows では役に立たないだけでなく、実際に動作するサード パーティのライブラリを購入することもできたはずです。
誰かが「でも、うまくいく!」と言おうとしている場合。私は言わなければならない、私に働く証拠をください。10fpsで200x100は気にしません。そのためにH264は必要ありません。1 秒間の 1080i 映像を圧縮する方法を教えてください。それは H264 であり、クロスプラットフォームであり (私に尋ねると変に聞こえます)、Google はそれを使用しています (完璧でなければなりませんよね?)、ここでいくつかのハイプ...
video-capture - H264 (1080i) の AVCodecContext 設定
1080i キャプチャ用に x264 を構成しようとしています。以下のこれらの設定のほとんどは、さまざまな例にあります。ただし、一緒にコンパイルすると機能しません。ffmpeg API はエラーを報告しませんが、avcodec_encode_video()
常にゼロを返します。
いくつかの数字は私には奇妙です... たとえば、gop_size
. 250は高すぎない?
あなたが最終的な答えを提供できない場合でも、私はこの件に関するあらゆる種類のコメントにまだ興味があります.
c++ - sws_scale YUV --> RGB 歪んだ画像
YUV420P
を使用して、画像(H.264
ストリームから受け取った)をに変換しRGB
、サイズを変更したいsws_scale
。
元画像のサイズは です480 × 800
。同じ次元で変換するだけでうまくいきます。
しかし、寸法を変更しようとすると、次のパターンで歪んだ画像が表示されます。
- に変更する
481 × 800
と、途中でカットされたように見える歪んだ白黒画像が生成されます 482 × 800
さらに歪む483 × 800
歪んでいるが色がついている484 × 800
大丈夫です(正しくスケーリングされています)。
このパターンは次のとおりです。スケーリングは、差が 4 で除算される場合にのみ正常に機能します。
これは、画像をデコードして変換する方法のサンプル コードです。すべてのメソッドは「成功」を示しています。
libavcodec - メディアファイルを変換する
libavcodecを使用してメディアファイルをmp4(aacおよびlibx264)からmp4(mp3およびh264)に変換するにはどうすればよいですか?誰かが私がしなければならないステップを説明できますか?私が知っているように、私はオーディオとビデオのストリームをデコードしてからターゲットコーデックにエンコードする必要があります。しかし、どうすればこれらのストリームをmp4ファイルに保存できますか?
cuda - FFMPEG は CUDA やその他のハードウェア アクセラレーションをまだ利用していますか?
単純な質問ですが、答えを見つけるのに苦労しています。
トランスコーディング エンジン (できればオープン ソース) を決定していますが、FFMPEG はハードウェア アクセラレーションを利用していないように見えますが、よくわかりません。
ffmpeg は libavcodec を使用していると思います。これは、Handbrake などの他の無数の製品で使用されているのと同じライブラリです。ハードウェアアクセラレーションをサポートしていないなんて信じられないので、私の質問です。
ffmpeg - x264_coeff_last64_sse2
x264libはいつものようにWindowsでクラッシュしています。今、私はそれを修正しようとしています、そして私は一つのことを理解していません。コードでは、関数のシグネチャのみを確認できます。
ただし、*。h、*。c、または*.asmソースには実装がありません。そんなことがあるものか???
(関数が呼び出されてクラッシュしたため、リンクする必要があります)