問題タブ [video-codecs]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
opencv - VideoCaptureはOpenCV2.4.2では機能しません
最近、Ubuntu12.04にOpenCV2.4.2をインストールしました。
仕事中。しかし、私はいくつかのビデオソースからフレームを取得することはできません。
すべてゼロの要素を持つnumpyを与えてくれます。
ffmpeg 0.11、x264の最新スナップショット、v4l-0.8.8もインストールしました(すべて最新の安定バージョンです)
私がcmakeをするとき、私はこれを手に入れます
--GNU GCCの検出されたバージョン:46(406) -OpenEXRが
見つかりました:/usr/lib/libIlmImf.so-linux/videodev.hを探し ています-linux/videodev.hを探しています-見つかりません -探していますlinux / videodev2.h - linux/videodev2.hを 探しています-見つかった-libavformat/avformat.hを探しています-libavformat/avformat.hを 探し ています-見つかった-ffmpeg/ avformat.hを探しています-ffmpegを 探しています/avformat.h-見つかりません -モジュール'tbb'をチェックしています -パッケージ'tbb'が見つかりません
と
videodev.hなどを探しました
- /usr/include/linux/videodev2.hが存在します
- /usr/include/libavformat/avformat.hが存在します
- /usr/local/include/libavformat/avformat.hが存在します
しかし、私は見つけることができませんでしたffmpeg/avformat.h
ここでの問題は何ですか?
screenshot - スクリーンショットでの動きの検出
2つの連続するスクリーンショット間を移動したパーツを検出できる高速アルゴリズムがあるかどうかを知りたいです。アルゴリズムは2つの画像を取得し、一方の画像に一連の(長方形の)領域と、もう一方の画像のどこに一致する領域があるかを表すベクトルを出力する必要があります。
これを、画面キャプチャ用に合理化されたロスレスビデオ圧縮アルゴリズムに使用したいと思います。これにより、モーション検出の通常のアプリケーションとは少し異なるユースケースになると思います。
- 画像はスクリーンショットです。アーティファクトや画像ノイズが発生する可能性はほとんどありません
- 画像の一部が移動すると、ピクセル単位で移動します。移動したパーツは通常、ピクセルの2%未満しか異なりません。
- 移動する領域は大きく、長方形の形状をしていることがよくあります
ビデオ圧縮パイプラインには他のステップもあり、リアルタイムで実行する必要があるため、モーション検出は高速である必要があります。
何か役立つものはありますか?
html - BlackBerry HTML5ストリーミングのエンコード設定は何ですか?
数日間、私は自分のビデオをBlackBerryだけでなく、主要なデスクトップおよびモバイルブラウザでもストリーミングできるように必死に努力してきました。ビデオは次のように埋め込まれます。
BBブラウザでページを開くと、コントロール付きの黒いビデオフレームが表示されますが、ビデオを再生しようとすると、フレームが黒のままで、「ビデオ部分はサポートされていない形式です」というエラーメッセージが表示されます。ただし、サウンドは再生されます。
これまでに、AACオーディオでH.264とmpeg4を試しましたが、どちらもBB(OSバージョン6.0)で正しく再生されません。私はファイルをエンコードするためにffmpegを使用してきました。
c++ - codec-changesにより、IMediaSeekingはsetPositionに失敗します
DirectShowを介してビデオを読むC++プログラムを喜んで改善していました。今、私はまたうまく機能しているビデオを書こうとしました。
次に、適切なコーデックの検索が行われました(vob / oggについて考えました)...
しかし、今日、突然、ビデオの表示が非常に遅くなりました。
以前にインストールした追加のコーデックをアンインストールしたので、ビデオはまったく再生されません。
その理由はエラーのようCComQIPtr< IMediaSeeking, &IID_IMediaSeeking > pSeeking( pGraph );
でhr = pSeeking->SetPositions( &Startzeit, AM_SEEKING_AbsolutePositioning,NULL, AM_SEEKING_NoPositioning );
、その時点ではSetPositionはサポートされていません...実際にはいつでも。
またhr=pSeeking->GetDuration(&duration)
、0を返しAM_MEDIA_TYPE mt;
、framepersecondを取得するために使用する対応するformat-typeは空です。(pbFormatはNullです)。
重要なものを意図せずにインストール/アンインストールしましたか?
同様の問題について聞いたことがありますか?
私が言ったように、数日前、同じビデオとソースコードが正常に機能していました(私は今までに変更によってコメントしました)。
もっとソースコードをあげたいのですが、ちょっと長いですが、参考になればもちろん追加します。
よろしく、
ジュリアン
ここにソースコードがあります:http://pastebin.com/jMdWejH9
もちろん、それはコード全体の一部にすぎませんが、ここにすべてのフィルターが挿入されているので、これが主要な部分だと思います。
これは実際には数日前まで機能したことを覚えておいてください!^^
最初の部分は変数の宣言です(私が知る限り、すべての重要な変数はfasであり、2番目は呼び出される関数です)
wpf - wpf ビデオまたはイメージ配列のシーク アニメーション
私は高解像度ビデオ (3072 x 768) が必要なアプリケーションを構築しようとしています。アプリケーションの状態間で前方または後方に再生する (3D を偽造する) ため、フラッシュ/エアから来て、シーク/再生をアニメーション化することが可能であることを知っていますトゥイーンアニメーション付きのスクラバー。
したがって、WPF の状態間で事前にレンダリングされた画像またはビデオを再生する最良のパフォーマンスを得る方法を知りたいです。誰かがこれを行った経験がある場合は、私に知らせてください。
オプションは次のとおりです: 1) 状態間の画像のある種の画像シーケンスを実行します (これは非常にパフォーマンスが重いと思います)。
2) シーク/スクラバーをアニメーション化します (ここでもパフォーマンスが懸念されます)。
3) 状態ごとに 2 つのムービーを作成します (したがって、バックワード シーク アニメーションは必要ありません)。ムービーをロードして、開始または停止時にちらつきません。
任意の入力を歓迎します: - このようなものに最適なコーデックなど
乾杯
イメージ シーケンス ソリューションを使用しました。以下のリンク: ハード ドライブ内のイメージ シーケンスから WPF イメージ内のイメージを変更すると、イメージが真っ暗になり、応答性が低下します。
c# - C#Windows8ストアアプリで記述されたメディアプレーヤーにVLCコーデックを追加する
私はそれについて直接しようとします
VLCメディアプレーヤーのソースコードからコーデックを取得し、C#で記述されたメディアプレーヤーのWindows8アプリに統合する方法
PS:このアプリをストアで公開したいので、誰でもダウンロードしてもコーデックなどをインストールする必要はありません。
今回の質問は簡単だといいのですが
video - エンコーディングにLagarithを使用する
x264を使用してエンコードされた損失の少ないmp4ファイル(YUV 4:4:4)があります。Lagarithを使用して損失の少ないaviに変換したいと思います。以前、lagarithを使用して圧縮するために、virtualDubを使用しました。ただし、virtualDubは入力としてmp4ファイルをサポートしていないため、このオプションは無効になります。ラガリス出力をサポートし、入力としてmp4の損失を少なくする可能性のあるソフトウェアに関する提案はありますか?
損失の少ないaviに変換するこの演習は、ビデオコーデックの実験の一部であるため、代替手段は役に立ちません。
ありがとう。
android - 画像からの連続ライブ ストリーム
カメラによって継続的に生成されるライブ ストリーミング (HTTP ライブ ストリーミング) 画像 (ディスクに保存された tiff ファイルなど) であるアプリケーションを作成したいと考えています。まず、FFMPEG でこれを実行したかった ( FFMPEG を実行し、新しい画像ファイルがエンコードおよびストリーミングされるのを待つ) 残念ながら、FFMPEG は変換場所で利用可能なすべての画像を通過すると停止し、待機し続けないため、これは不可能です。私のカメラが新しい画像を生成します。
私は今、これを行う独自のアプリケーションを作成することを検討しています。これを達成するための最良の方法、使用するエンコーダー(x264?)、セグメンターなど、またはこれに一般的に使用されるコーデック/プロトコルをお勧めできますか?
image - FFMPEG は正規表現に一致するファイルを見つけることができません
40枚の画像のシーケンスをビデオに変換したい。問題は、ffmpeg がコマンドの正規表現に一致する入力画像を見つけられなかったことです。私は何を間違っていますか?
次のコマンドを実行しました。
助けてくれてありがとう!