問題タブ [video-processing]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
1 に答える
65 参照

video - ビデオからライティングを削除するアルゴリズムはありますか?

ビデオからライティングを削除するアルゴリズムはありますか? 一部のオブジェクトの照明が強すぎるビデオがあります。ビデオ全体を壊すことなく、そのオブジェクトから照明を削除するにはどうすればよいですか?

0 投票する
6 に答える
61311 参照

image-processing - OpenCVでYUVファイルからフレームを読み取る方法は?

OpenCVでYUVファイルからフレームを読み取る方法は?

0 投票する
1 に答える
341 参照

video-processing - Webカメラ効果を実装する方法は?

そして今、いくつかの楽しみのために...ここで見られるようにロジクールビデオエフェクトの背後にある技術を再現したいと思います:http ://www.youtube.com/watch?v = 7qZLgA2g7Ow4

ユーザーの頭、目、口をどのように追跡しますか(読み取り時間も同様)?このテクノロジーの背後にあるアルゴリズムに関する出版物はありますか?

0 投票する
1 に答える
1129 参照

java - Java: Draw Lines on a JMF Lightweight_Rendered Player

I've got a problem: I have a JMF-Videoplayer in my application and I want to draw on it (while the video continues). The Problem I've got is that I use a JLayeredPane where I add the VideoPlayer-Control on Layer.Content_Layer(index 0) and a JPanel (setOpaque(false)) on Layer.Modal_Layer(index 300).

What happens is, when I add the JPanel it is not opaque but I see the drawn lines but not the video. If I add the JPanel before (didn't changed the index of the layer) I add the video-control then I see the video but not the drawn lines.

Has someone an idea why this doesn't work and how I could make it work?

I thought about adding an ActionListener to the video-control-component and evertime the image changes, I take this image and paint it as background on the JPanel but I'm affraid that this will cost me precious time.

My code looks like this:

The videoPlayerPanel is also a JPanel that contains the JLayeredPane... as you can see.

Edit: Okay I put some research into it and found out that

returns a java.awt.Component and such components do not support opacity - maybe that's the reason why I cannot see or only see the drawPanel.

So currently I'm trying to draw directly onto the video-Component by adding it to a customized Panel where i override the paint-method to draw all the lines. Any other ideas?

0 投票する
0 に答える
873 参照

c# - DirectShow フィルターを使用した AVI ファイルの解凍

DirectShow フィルタを使用して AVI ファイルを解凍しようとしています。

これが私が構築しているグラフです。

File Reader -> AVI Splitter -> AVI Decompressor -> SampleGrabber ->AVI Mux -> File Writer

私は、SampleGrabber に変換の進行状況を報告するよう訴えています。

私が抱えている問題は、ファイルが変換されるとオーディオが含まれないことです。ビデオはすべて問題ありませんが、オーディオはありません。GraphEdt を使用して同じフィルター セットを試してみたところ、正常に変換されました (オーディオとビデオの両方がそのままです)。

このプロセス全体で何がうまくいかないのか、私には本当にわかりません。何か案は?

DirectShowNet を使用しています

0 投票する
2 に答える
403 参照

ruby - Ruby は web flv ビデオの長さを教えてくれますか? (ルビー)

フォーラムの Web サイトをタイプ (記事、ウェビナー、ビデオ) ごとにスクレイピングしています。Web ページの対応する html 部分は次のようになります。

興味深いことに、flv ファイルに直接アクセスできるので、すべてのビデオをダウンロードしてから、何らかの方法で長さを抽出できます。ほとんどのファイルは flv で、一部は wmv です。

フォーラムのウェブマスターからスクレイピングの許可を得ていることに注意してください。

0 投票する
1 に答える
773 参照

video - ビデオエフェクト/操作ライブラリ?

私は、ビデオを操作するための優れたライブラリを見つけようとしています。たとえば、クリップを接着したり、キャプションを追加したり、クリップ間のトランジションを追加したりします。これまでのところ、有望なものは見つかりませんでした。Linuxで実行する場合はプラスであり、無料である必要はありません。明確にするために、私はビデオ編集ツールではなく、何らかの形のapi/libraryを探しています。

0 投票する
2 に答える
4552 参照

c - OpenCV の白いピクセルのグループ化

MacBook の iSight カメラを赤外線カメラに変換し、変換し、しきい値を設定するなど、大変な作業を行いました。現在、次のような画像が得られています。

代替テキスト

私の問題は今です。白いピクセルをグループ化して、画像に含まれるブロブの数を知る必要があります。cvBlob/を使用したくありませんcvBlobsLib。既に OpenCV にあるものを使用したいだけです。

ピクセルをループして、(しきい値を設定した) 接触している白いピクセルをチェックすることでそれらをグループ化できますが、おそらく OpenCV からこれを行うための本当に簡単な方法があると思いますか?

cvFindContoursこれは、「グループ」に分離するのではなく、すべての白いピクセルを 1 つの大きな配列で取得するため、使用できないと思います。誰でもお勧めできますか?(これらは円ではなく、小さな IR LED から放出された光であることに注意してください)

よろしくお願いします!
トムド

0 投票する
3 に答える
2025 参照

video - gnlcomposition を使用してビデオ ファイルを連結する方法は?

gstreamer の gnonlin コンポーネントを使用して 2 つのビデオ ファイルを連結しようとしています。

私が使用しているパイプラインは

gst-launch-0.10 gnlcomposition { gnlfilesource name="s1" location="/home/s1.mp4" start=0 duration=2000000000 media-start=0 media-duration=2000000000 gnlfilesource name="s2" location="/home /s2.mp4" start=2000000000 duration=2000000000 media-start=0 media-duration=2000000000 } ! 列 !ビデオレート!progressreport name="進行状況のマージ" ! ffmpegcolorspace ! ffenc_mpeg4 ! ffmux_mp4 ! filesink location="/home/merge.mp4"

その結果、パラメーターで指定された期間、2 番目のファイルのみを取得しています。いくつかのことを試し、グーグルでも検索しましたが、上記のコマンドの問題を理解できませんでした。誰かが私が間違っていることを指摘できますか? 時間に基づいて複数のファイルを 1 つに連結する他の方法も大歓迎です。

ありがとう

0 投票する
3 に答える
190 参照

video - ビデオに動的に透かしを入れるのに最適な言語?

Web サイトの動画に透かしを動的に追加したいと考えています。そうするのに最適な言語とライブラリは何だと思いますか?