問題タブ [avconv]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - python vars を bash avconv コマンドに渡す必要があります
ここのbashハッカーは、私の足をpythonで濡らしています。私は自分の bash スクリプトの 1 つをほとんど Python に移植しましたが、python 変数を bash コマンド avconv に渡して .ogg オーディオ ファイルを .mp3 ファイルに変換する方法がわかりません (ため息mp3 プレーヤーは .ogg を再生しません)。
とにかく、持っているものを貼り付けようと思ったのですが、最後の「for」ループの「if」の最後の4行まで、すべて希望どおりに機能しています。もちろん、bash/avconv は python の 'for' ループから渡された python var 'f' を認識しません。
更新: src から dest にその場でコピーして「ogg」を「.mp3」に avconv しようとするランダムな曲の選択を扱う、上記のスクリプトの最後のセクションのみを貼り付けます
最後の「サブプロセス」コマンドがコメント化されている場合のターミナル出力は次のようになります。
どちらが正しいように見えますか。
最終的な「サブプロセス」がコメント解除された端末出力は、次のようになります。
おそらく問題は、avconv プロセスの一部として '.ogg' ext を '.mp3' ext に置き換えようとする /%ogg/mp3 にありますか? 誰かが私をホームフリーにするのを手伝ってくれる提案があれば、それは近いようです。
ところで、私は適切なヘルプを得るために、inet、特にstackoverflowを精査してきました。だから私は助けを求める前にRTFMを持っています。この最後の部分をbashシェルとやり取りすることができないようです。
ありがとう、昼寝
video-processing - 画像と音声のサブセットからビデオを作成する
3 つの画像と 3 つのオーディオ ファイルのビデオを作成したいのですが、各画像の継続時間は、対応するオーディオ ファイルの時間でなければなりません。
image_0.png、image_1.png、image_2.png の 3 つの画像と、3 つの音声ファイル audio_0.mp3 (長さ 10 秒)、audio_1.mp3 (長さ 15 秒)、audio_2.mp3 (長さ 12 秒) があるとします。
最初に image_0.png と audio_0.mp3 を 10 秒間、次に image_1.png と audio_1.mp3 を 15 秒間、最後に image_2.png と audio_2.mp3 を 12 秒間表示するビデオを作成したいと考えています。
これをavconvで作ってみました。-i コマンドのさまざまなバリエーションを試しました
何も機能しませんでした。確かに、各画像と音声を単一の avi ビデオにすることはできましたが、すべての単一の avi ファイルを連結できませんでした...さらに、これは品質の損失のために私が考える最良の方法ではありません。
これをどのように行いますか?これは avconv でも可能ですか?
ffmpeg - バックグラウンド ミュージックを既存の avi に追加する
以前にmencoderで生成したvideo.aviがあります。ビデオとオーディオのストリームがあり、background.mp3 ファイルを追加 (ミックス) しようとしていますが、インターネット上で何も見つからないため、質問しています。バックグラウンド ミュージックは常に video.avi のオーディオよりも長いので、ffmpeg からわかるように「最短」のようなものを使用する必要があります。
私がこれを行う場合:
video.avi からの既存のオーディオ ストリームは上書きされます (または使用されません)。mencoderでこれを行うことさえ可能ですか? 誰かが ffmpeg または avconv (任意の Linux コマンド ライン ツール) でこれを行う方法を教えていただければ幸いです。
streaming - 'avserver' を使用してストリーム入力からストリーム出力へ
avserverパッケージを使用して IP カメラのストリームを再ストリーミングし、このストリームを記録して、カメラから 2 回ストリーミングしなくてもリモートでアクセスできるようにして、ワイヤレス ネットワークの過負荷を回避しようとしています。
リンクhttps://libav.org/avserver.htmlに従って、次のコマンドを思いつきました。
これにより、次の出力が得られます
VLC media playerを使用してこのストリームを開こうとすると、
次の追加出力が得られます
そして、VLCメディアプレーヤーでは何も得られません。何が起こっているのか、それを修正する方法がよくわからないので、これに関する啓発は大歓迎です.
java - Ffmpeg または avconv ツールがライブ ストリーミング ビデオを停止する 10 分後に停止する
RTMP ライブ ストリーミング ビデオが、avconv
ツールを介して FMS サーバーに送信されています。ただし、Javaプログラミング言語を使用してコマンドラインで再生すると、次のようになります-
avconv
ライブ ビデオ ストリームのエンコードを 10 分後に停止します。Java のランタイム環境を介してコマンドを実行すると。コマンド プロンプトで直接実行されたコマンドは、Ubuntu (Linux OS) で適切に実行されます。
node.js - Node.js & avconv — リアルタイム動画変換
私はリアルタイムのビデオ変換デモアプリに取り組んでいます。ビデオ ファイルはnode-multiparty
、ファイルのpart is piped
toavconv.stdin
で解析され、処理されるとchunk pipes
toで解析されますwrite stream
。
ソースコードの一部を次に示します。
end
ファイルの に添付されたイベントに興味がありますpart
。通常、パーツが解析されたときにイベントが発生する必要があります。これは、パーツがアップロードされたことを意味します。
テスト ビデオ ファイル (~800KB) と、テスト用の低レベルのラップトップがあります。localhost でテストを実行しているときに、変換プロセスend
の最後にイベントが発生します。これは ~15 秒間続きます。avconv
800KB のビデオ ファイルがアップロードされましたが、part
ストリームはまだ空ではなく、データが によって処理されるのを待っているようですavconv
。
私は正しいですか、それとも別のことがありますか?
background - AVCONV または FFMPEG を使用して、画像ファイルに movie.mov をオーバーレイします。
透明な mov または flv を画像の上に重ねようとしています。
私は、ffmpeg または avconv を使用して、両方のオプションを受け入れています。
これが私のコマンドです:
私はこれを取得します:
ただし、生成されたビデオには背景画像がなく、代わりに白色になります。助けてください..