問題タブ [python-gstreamer]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - GStreamerとGNonLinが機能しないビデオトランジション
私は、Pythonでgstreamerとgnonlinを使用して、2つのビデオをgstreamerと組み合わせて、それらの間の短い遷移(smpteなど)を試みてきました。ただし、gnloperation/smpteトランジションを機能させることができません。
ゴール
以下はプログラムです。1つのファイルの最初の4秒間を再生し、2秒後に別のファイルへのsmpteトランジション(2秒間続く)を開始するようにします。(したがって、2番目のファイルは全体の2秒間再生を開始しますが、2秒間の遷移の過程で「表示」されます)、遷移が終了した後、2番目のファイル自体の2秒間が表示されます。
これは、Pythonの別のgstreamer/gnonlinスクリプトに基づいています。私はgstreamer-develリスト(そして再び)でこの質問をしました、そしてここで試みています。
問題
移行は終了しません。トランジションは約0.5秒間実行され、次にビデオ1が約1.5秒間再生され、次にビデオ2がカットインします。コントローラーの終了位置を変更してみました(例:)。controller.set("position", 0.5 * gst.SECOND, 0.0)
トランジションは0.5秒で完了しますが、トランジションが終了するとすぐに、ビデオ1が少しの間再び再生を開始し、次にビデオ2が再生を開始します。
ビデオトランジションが0.5秒に制限されている可能性があると考えて、gnloperationを0.5秒に変更しましたが、トランジションが約0.3秒しか再生されず、ビデオ1の途中で開始されることを除いて、同じ未終了の問題が解決しません。少しの間、ビデオ2が再生されます。
脚本
python - pygst による手続き型 MPEG-4 ビデオの作成
pygst を使用して MPEG-4 ビデオ ファイルを作成する方法を見つけたいと思っています (他のフレームワークも提案できます)。
質問には 3 つの部分があります
Python フレーム バッファから pygst パイプラインで生成されたビデオ データをフィードする方法
このストリームを MPEG-4 ファイルに保存する方法
このストリームを MP3 オーディオ ソースとミックスする方法
以下の疑似コード:
より詳しい情報:
http://lists.freedesktop.org/archives/gstreamer-devel/2011-August/032609.html
python - Pythonで複数のチャネルを介してオーディオを再生する
左右のチャンネルで2つの異なるモノラルmp3ファイルを再生する方法はPythonにありますか?
私は2つのmp3ファイルを持っており、1つは左のスピーカーから、もう1つは右のスピーカーからプログラムでPythonで再生したいと考えています。どんな解決策でもOKです。それがクロスプラットフォームソリューションであるなら、それは素晴らしいことです。誰か提案はありますか?
python - gstreamer appsrc がランダムなクラッシュを引き起こす
ビデオ ソースとして GStreamer appsrc をセットアップしようとしていますが、単純なプログラムでさえまったく機能せず、ランダムなクラッシュやハングが発生します。問題を見つけるのを手伝ってくれませんか?最小限のクラッシュ コード:
gstreamer - gstreamer - Wadsworth の定数サムネラー
gst-python を使用してビデオ サムネラーを作成しようとしていますが、次のようになります。
機能
- filesrc はビデオ ファイルを読み込みます
- decodebin2 はビデオ ファイルをデマルチプレクサし、ビデオ src パッドを ffmpegcolorspace シンクに接続します
- ffmpegcolorspace は、ビデオ ストリームの色空間で行うことは何でもします。
- videoscale はビデオをスケーリングします
- capsfilter は videoscale に、ビデオが 180x180 ボックスに収まるように指示します
- jpegenc は単一のフレームをキャプチャします
- filesink は jpeg ファイルを保存します
やりたいこと
- filesrc はビデオ ファイルを読み込みます
- decodebin2 はビデオ ファイルをデマルチプレクサし、ビデオ src パッドを ffmpegcolorspace シンクに接続します
- ffmpegcolorspace は、ビデオ ストリームの色空間で行うことは何でもします。
- videoscale はビデオをスケーリングします
- capsfilter は videoscale に、ビデオが 180x180 ボックスに収まるように指示します
- jpegenc は、ビデオの 30%で単一フレームをキャプチャします。
- filesink は jpeg ファイルを保存します
私は試してみました
_on_dynamic_pad
残念ながら、パッドのリンク後に に配置されましたが、役に立ちませんでした。
python - DrawingAreaはXIDを取得できません
私は次のPython2.7/ PyGObject 3.0 / PyGST0.10モジュールを持っています:
既存のウィンドウではなく、新しいウィンドウでビデオが開くとともに、このエラーが常に発生します。
トレースバック(最後の最後の呼び出し):on_sync_messageのファイル "video.py"、行32 win_id = videowidget.window.xid AttributeError:'DrawingArea'オブジェクトに属性'window'がありません
これを修正して、ビデオが新しいウィンドウではなく、作成したウィンドウに表示されるようにするにはどうすればよいですか?
までに、この問題は、PyGTK2.24からPyGObject3.0に切り替えた後にのみ発生し始めました。
python - ウェブカメラのスナップショットをファイルに保存
これを実行すると、ファイルのカムスナップショットが取得されます。
gst-launch-0.10 v4l2src num-buffers = 1!jpegenc!filesink location = pic.jpg
私はそれをPythonに入れようとしましたが、picの代わりに空のファイルを取得しました。誰かが間違いがどこにあるかわかりますか?これは非常に単純なコードであり、非常に単純なタスクを実行する必要があります。また、gst.parse_launch()を使用したくないので、Pythonでのパイプラインの構築を理解する必要があります。
video-streaming - ビデオのエンコードされたビット レートと再生場所のグラフを描画する
ビデオをネットワーク経由で再生するときに必要な帯域幅の変動を測定しようとしています。この目的のために、ビデオ中の任意の時点でビデオを連続して再生するために必要な帯域幅のグラフを作成する必要があります。
gstreamer でビデオを処理しようとしましたが、デコードされた [エンコードされていない] ビデオのビット レートはほぼ一定です。
ビデオのエンコードされたビット レートを経時的に取得する方法はありますか?
python - Python 2.7 の GStreamer は gst をインポートできません
Python で GSTを インポートできません が、その解決策がうまくいきません。
Python 2.7、GStreamer 0.10.7、および PyGTK 2.24 で Win7 64 ビットを使用しています。私が受け取る正確なエラーは次のとおりです。
私が間違っていることはありますか?
前もって感謝します
python - 複数のオーディオ トラックを含む PyGST とビデオ
PyGSTを使用してビデオのオーディオトラックを切り替えるにはどうすればよいですか? このパイプラインを使用していますが、ビデオ内の特定のオーディオ ストリームを選択してオーディオシンクに接続する方法がわかりません。
uridecodebin name=pipe1 pipe1. ! ビデオバランス名=バランス!テキストオーバーレイ名=テキスト! xvimagesink name=videosink pipe1. ! ボリューム名=ボリューム! autoaudiosink name=audiosink
どの例も役に立ちます。ありがとうございました