問題タブ [avconv]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ffmpeg - avconv で S ビデオを録画できない
avconv を使用して、S ビデオ ケーブルからのフィードを記録しようとしています。avconv でコンポジット ビデオを録画できますが、品質は最高ではありません。入力を設定するには、 を使用しますv4l2-ctl -i $n
。ここで、$n
はコンポジットの場合は 0、S ビデオの場合は 1 です。入力を設定するために使用しようとしましv4l2-ctl -i 1
たが、うまくいきません。奇妙なことに、tvtime または qv4l2 を使用すると、ビデオを表示できます。
ビデオではなく、オーディオを録音できます。tvtime では、ビデオだけでなくオーディオも取得できます。また、-channel
オプションを使用してffmpegでSビデオを記録することもできました。ffmpeg、ところで、オーディオを録音できません。別のオーディオを録音することはできません。
編集: Anton の要求に従って、avconv でビデオをキャプチャするために使用するコマンドを次に示します。
このコマンドの出力は次のとおりです。
node.js - node.jsがavconvを見つけられないのはなぜですか?
node.js で exec を使用する理由:
エラーが発生します:
bashでは普通に実行できます。node.js の開発には、nodeclipse を使用します。
bash - 固定長のビデオを作成する方法
私はビデオを持っています:
video1 - 923 秒
ビデオ 2 - 1457 秒
ビデオ 3 - 860 秒
これらのビデオをカットして、長さを 600 秒に修正する必要があります。しかし、難しいのは、スキームの下でそれらをカットする必要があることです
どこ :
青いセグメントは常に 120 秒 (固定) です。
カットする必要がある赤いセグメント。
カットしてはいけない緑色の部分。
その後、新しい 600 秒のビデオで青と緑のセグメントに参加する必要があります。例
ビデオ 1、ビデオ 2、ビデオ 3 の長さが異なるため、赤と緑のセグメントの長さは異なる必要があり、ビデオの長さに等しく比例する必要があります。
純粋な ffmpeg (avconv) コマンドまたは bash スクリプトが必要です。作り方のアイデアがありません。
bash - ユーザー入力で avconv Bash スクリプトを停止し、ループを続行します
基本的に (できれば) ウェブカメラからビデオ ストリームを記録し、それを特定のディレクトリに保存してから、ユーザーが数字を入力するとそれを強制終了したいと考えています。私はこれをうまく説明していないので、現在私がしていることは次のとおりです。
そのため、記録を停止し、新しい $YOURNUMBER フォルダーで新しい記録を開始したいと考えています。何か案は?(これはかなり新しい..我慢してください!)
アップデート:
@TrueYに感謝
更新されたスクリプト (実際には mkdir を実行する必要はないので削除):
唯一の問題は、私 (またはエンド ユーザー) が再度記録を開始する前に、番号を 2 回入力する必要があることです。
linux - Drawtext FPS avconv
avconv から drawtext を使用して fps を書き込むことは可能ですか?それに関する情報が見つかりません。
drawtextなしで使用する完全なコマンド:
libav - avconv を使用してビデオに 2 つの写真を追加する
ストリームにロゴを追加するために使用しているコマンドは次のとおりです
ストリームに 2 番目の画像を追加するにはどうすればよいですか? -filter_complex が利用できないため、使用せずにこれを行う方法はありますか?
ありがとうございました。
ffmpeg - 入力としてストリームの rtp ダンプまたは pcap を取る ffmpeg/avconv
入力ソースとして rtp ダンプを表す何らかのファイルを取得し、これをビデオに出力するように ffmpeg (または avconv) を取得しようとしています。
ffmpeg -i rtp://<ip_addr>:<port> <outputfile>
またはのようなものを指定し、そのアドレス/ポートに( から を使用して)ffmpeg -i sdp.sdp <outputfile>
ストリーミングするシナリオで、これを正常に機能させることができます。ただし、入力として実際の自体を指定するか、(ストリーミングではなく) ファイルとしてフィードできる rtp または rtp ペイロードを表すものを指定したいと思います。rtpplay
rtpdump
rtpdump
これまでのところ、rtpdump
私が試してffmpegに入力したタイプは機能していないようです(通常、実際に使用していないペイロードタイプのコーデックパラメーターを見つけることができないと不平を言い、入力ファイルの形式に疑問を投げかけます) .
これを行う方法を知っている人はいますか?rtpdump
入力がそれ自体であることはあまり心配していませんが、 wireshark
pcap から派生できるものが良いでしょう。
ありがとう
build - STM32F4-Discovery 用の avconv/ffmpeg のスリム バージョンのコンパイルとビルド - armv7 サム 1/2 アーキテクチャ
これは、スタック オーバーフローにヘルプを投稿する最初の試みです。
私のプロジェクト: STM32F407VGT6 チップを搭載した STM32F4-Discovery と FPv4-SP およびカメラ/LCD 周辺機器のセットアップを使用して、QVGA でビデオを録画し、少なくとも 25:1 の比率で圧縮された MPEG-4 形式に出力する必要があります。
必要なコーデック ライブラリ (avconv、ffmpeg の方が使いやすいことが証明されない限り) を特定し、ANSI-C のチップ上で実行できる軽量バージョンを提供するコンパイラ オプションを構築しようとしています。および Thumb アーキテクチャ。
このボードのスペースは非常に限られており (192KB の SRAM と 1MB のフラッシュ - 拡張の可能性はありますが、私が持っているものだけを使用することをお勧めします)、現在どちらのライブラリの「メイン」実行可能ファイルも 1MB を超えています。
私が試したさまざまなソリューションの出力から判断すると、多くのコンパイラ オプションがビルドに正常に適用されているようには見えません。だから私の質問は:
1) rawvideo デコーダ、mpeg4 エンコーダ、および可能な限り最も基本的なユーティリティのみを使用して、いずれかのライブラリを必要なスペースにコンパイルすることさえ可能ですか? そうでない場合、どれくらい必要になるかについての推測はありますか?
2) 私はインターネットを何時間もかけて調べましたが、誰もこれを試みたようには見えません。そうでないことを教えてくれる人はいますか?
基本的なものを見落としていないかどうかを確認したい人のために、configure/build スクリプトを用意しています。聞いてみてください。私はそれを電子メールで送信します。一見冗長な審問がすでに持っている以上にスレッドを混乱させたくありません。
どちらのライブラリも壊れている可能性は低いと思います。Ubuntu 12.04 32ビットでこれを試みています。
私はソフトウェアのインターンであり、利用可能なヘルプに非常に感謝しています.
最後の質問です。私の解決策がうまくいかない場合、組み込み ARMv7E-M/Thumb セット アーキテクチャ用に簡単にコンパイルできるオープンソースの mpeg4 圧縮ライブラリは他にありますか?
編集: 以前は含まれていなかったビルド コマンドを次に示します。
これは私が入手して修正したスクリプトです。ARMv7e-m チップ (ディスカバリー ボード) では実行されない ARMv7-a 用に最初に正常にビルドされました。