問題タブ [libav]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c - libav: AVFrame を RGB24 サンプル データで埋めますか?
RGB24 形式で初期化された AVFrame のサンプル データを埋めようとしています。次のコード スニペットを使用して、RGB データを入力します。しかし、エンコードされたビデオでは、ビデオ フレームの 1/3 しかカバーしていないグレースケール ストリップしか見えません。このコード スニペットは、赤色のみを塗りつぶすことを想定しています。ここで間違っているヒントはありますか?
permissions - minGW と MSYS を使用して Windows で libav をビルド中にエラーが発生する
libavに問題があります。 MinGW と MSYS を使用して、Windows で libav をビルドしました。ただし、「make」を使用すると、いくつかのファイル(.oファイル)がビルドされた後にエラーが発生します。
その後、libavcodec フォルダーのパーミッションを表示します。すべてのパーミッションを持っています。:| この問題の解決を手伝っていただくか、Windows で libav をビルドするための完全な手順を教えてください (私は win7 x64 を使用し、msys と mingw を使用しています) ありがとう!!!
android - AndroidおよびiOS用のphonegapプラットフォームを介して画像を組み合わせてビデオを作成する方法を探しています
画像を組み合わせてビデオを作成できるアプリケーションを作成しようとしています。Android と IOS で使用できるように、Phonegap フレームワークを使用しています。
私の質問は、これを達成するためにどのようなプロセスが関係しているのかということです。
この段階で、私は ffmpeg について読み込もうとしました。スタックオーバーフローに存在するほとんどの質問は、ソースを取得し、使用する一連のライブラリを作成するためにコンパイルする必要があるというものです。これらのライブラリでは、Android/IOS ライブラリと結び付ける必要がありますか? (Eclipse にプロジェクト ファイルを含む 'android.jar' があることに気付きました。そこに存在するでしょうか?) その後、これがどのように Phonegap に実装されているかに混乱が生じます。プラグインを開発しますか?
追加するだけで、wikiによると、libavはハードウェアで加速されたH.264デコードを行い、Androidのエンコードにはx.264を使用します。それはどのように機能しますか?これは libav ライブラリからアクセスしてから、android.jar 内でコンパイルする必要がありますか?
私が知らないことを説明しようとして、用語を混乱させた可能性があります。
どんな助けでも大歓迎です。
c++ - ffmpeg ライブラリを使用して .264 を .ts に変換する
現在、h.264 エレメンタリー ストリーム (postfix .264 のファイル) をトランスポート ストリーム (postfix .ts のファイル) に変換する作業を行っています。ffmpegコマンドライン「ffmpeg -i in.264 -an -vcodec copy -f mpegts out.ts」を使用して変換を正常に終了しました。
ここで、ffmpeg のライブラリを呼び出して、独自の C++ コードを使用してこの変換を実装したいと考えています。コンパイル済みの ffmpeg ライブラリ (libavcodec、libavformat など) をダウンロードしました。私の入力 h.264 は、ライブ ストリームではなく、事前に記録されたファイルであり、出力 .ts ファイルと同様です。私の質問は、変換を実装するためにライブラリ内のどの関数を呼び出す必要があるかということです。
ios - ユニットテスト時のリンカーエラー:ld:不正なテキスト-cstring in ... from _av_image_check_size in ... / libavutil.a(imgutils.o)
Xcode 4.3.2では、ffmpegディストリビューションを含むiPadアプリをlibavutil.a
ビルドすると、正しくビルドされて実行されますが、単体テスト(Cmd-U)を実行しようとすると、次のリンカーエラーが発生します。
ld:アーキテクチャarmv7 clangの/myPath/libavutil.a(imgutils.o)の_av_image_check_sizeから/myPath/libavutil.a(imgutils.o)のcstringへの不正なテキスト再配置:エラー:リンカーコマンドが終了コード1で失敗しました(使用-v呼び出しを確認する)
これはデバイス上にあります(含まれているすべてのライブラリのファットバイナリがないため、現在シミュレータで実行できません)。
ユニットテストの実行時にリンクしないのに、正常にビルドおよび実行されるのはなぜですか?
c++ - C/C++ の Linux で libavcodec を使用するとエラーが発生する
問題: AVFormatContext::nb_streams の値が小さすぎます。私のC++コード(リストを減らすために省略されたエラー処理、インクルードなど):
ランニング:
しかし、「avplay」プログラムはうまく機能します。
ffmpeg - コマンドラインなしでlibavを使用していますか?
ファイルの変換には、以下のこのコマンドを使用します
./avconv -i inputFile -vcodec libx264 -trellis 2 -crf 23 -tune psnr -vf crop='trunc(iw/2)*2:trunc(ih/2)*2' -y outputFile
しかし、私はこのコマンドを使いたくありません。次のような関数を作りたいです
convert(char *inputFile, char *outputFile). (The option of my function like option in command line)
そして、たとえばメイン関数から呼び出します
この投稿も読みました。しかし、それは私には明らかではありません。
誰かがこの問題を解決する方法を教えてもらえますか? 私は何度もグーグルで検索しましたが、解決策が見つかりませんでした。
encoding - sws_scaleは、小さいx264mp4エンコーディングで最後のピクセル行を台無しにします
PIX_FMT_ARGB形式の画像をmp4ビデオに多重化しています。
送信画像の最後のピクセル行がめちゃくちゃになっていることを除いて、すべてうまく機能します。ほとんどの場合、最後の行は完全に黒で、他の色がある場合もありますが、それが実行されているマシンに何らかの形で依存しているようです。
スケーリングの前後に画像を保存しているので、エラーはsws_scaleにあるはずです。入力画像にエラーはありませんが、sws_scale()の後で、yuv画像を保存すると、エラーが明らかになります。
次に例を示します。
オリジナル
Yuvfile(sws_scaleの後)
Yuvfileの下部に、黒い行が表示されます。
これは私がスケーリングを行う方法です(それは公式のffmpegの例の後です、多かれ少なかれ):
また、いくつかの異なるSWS_フラグを試しましたが、すべて同じ結果になります。
これはsws_scaleのバグでしょうか、それとも何か間違ったことをしていますか?ffmpegライブラリの最新バージョンを使用しています。
c++ - libavはmpegtsを介してrtmpサーバーにh264をストリーミングします
h264をmpegts経由でrtmpサーバー(FMS、C ++ RTMPサーバー、Wowza)にストリーミングしたいアプリケーションに取り組んでいます。libavのoutput-example.cを見ています。シンプルにするために、今のところすべてのオーディオを削除しました。
私はこのコードをテストとして使用しています(機能していません): https ://gist.github.com/fb450aee77471a1d86f3#comments
私はそこで何が間違っているのですか?
ありがとう