問題タブ [yuv]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
opencv - OPENCV で RAW YUV ビデオを読み込む
OpenCV での RAW YUB ビデオの読み込みに問題があります。次のコマンドを使用して mplayer で再生できます。
OpenCV でロードするための私のコードは次のとおりです。
cvCaptureFromFile
常に NULL を返します。しかし、通常の avi ファイルで試してみると、コードは正常に実行されます (キャプチャは null ではありません)。
Windows 7 で最新バージョンの OpenCV を使用しています。
編集:出力メッセージは
ありがとう
android - ビデオを処理する Android、ビデオへの YCrCb フレーム
ピクセルの色を変更して、Android フォンで録画したビデオを処理したいと考えています。必要な処理を実行する方法はわかっていますが、すべてをまとめる最善の方法はわかりません。
これまでのところ、私にできることは次のとおりです。
- YCrCb (YUV) としてビデオから 1 つのフレームを取得します。
- YCrCb のバイトを好きなように変更する
- YCrCb を RGB 配列に変換します
- RGB 配列をビットマップに変換する
すべてをまとめて、Android で再生できるビデオとして保存するにはどうすればよいですか? YCrCb 情報から直接アクセスできますか? それとも、最初に RGB またはその他の形式に変換する必要がありますか?
これをリアルタイムで行う必要はありません。目的は、ビデオを録画して保存し、それを処理して、処理されたビデオを保存することです。ただし、速度は念頭に置いています。プロセスを高速化するために使用できるライブラリはありますか? Android が OpenGL の使用を提供していることは知っており、ffmpeg について読んだことがありますが、最適な方法がわかりません。
誰かが私を正しい方向に向けることができれば、私はそれを感謝します! =D
ありがとう!!=D
android - NDK を使用した C/C++ での YUV から RGB へのデコード
Android カメラ フィードを画像処理用のビットマップに変換しようとしています。
動作するネイティブ Java で YUV を RGB に変換するコードがいくつかありますが、このプロセスはリアルタイム ビデオには十分な速度ではないため、フィルターを適用する前に C または C++ で変換する必要があると思います。私はすでに NDK をセットアップして動作させているので、次のコードを C または C++ に移植する方法がわかりません。
...
誰もこれを行う方法を知っていますか?
どうもありがとう!
アップデート
これは私が持っている距離です:
しかし、次の C エラーが発生します。
行 53 は Y = yuv420sp[pixPtr]; です。もし(Y < 0) Y += 255;
java - AndroidでのBitmapFactoryのnullの問題
bitmapfactory を使用してビットマップ クラスを作成しようとしています。カメラのプレビュー画像を YUV 形式で取得し、手動でグレースケール画像にデコードします。BitmapFactory を介してビットマップ オブジェクトを作成しようとすると、null が返されます。
android - 一次元整数RGB配列とは別に各色のRGB値を取得する方法
私はビットシフトにあまり慣れていないので、次の質問があります。以下の関数 (他の場所にあります) を使用して、YUV から RGB int 配列にデコードします。
ここで、赤、緑、または青の値を調整して、カスタム フィルター効果を作成したいと考えています。R値、G値、B値を取得する必要があります。0 ~ 255 の範囲の各値。その後、指定されたインデックスの rgb 配列に復元する必要があります。だから私はから各色を取得しrgb[i]
、それを再び保存できるようにする必要がありますrgb[i]
image-processing - YUV色空間で画像の彩度を調整する方法
YUV
色空間、特にU
コンポーネントとコンポーネントの画像の彩度を調整する方法を知りたいV
ですか?
ios - Apple A4 で YUV から RGBA に変換するには、シェーダーまたは NEON を使用する必要がありますか?
OpenGL ES と ffmpeg を使用して、Apple TV 用のメディア プレーヤー フレームワークを作成しています。OpenGL ES でのレンダリングには RGBA への変換が必要で、swscale を使用したソフト コンバートは非常に遅いため、インターネットの情報を使用して、ネオンを使用する (ここのように) か、フラグメント シェーダーと GL_LUMINANCE および GL_LUMINANCE_ALPHA を使用するかの 2 つのアイデアを思いつきました。
私は OpenGL についてほとんど何も知らないので、2 番目のオプションはまだ機能しません :)
続行する方法を教えてもらえますか?前もって感謝します。
image-processing - Y'CbCr 空間でのガンマ補正
Y'CbCr 空間の画像でガンマ補正を行う必要があるため、画像の飽和領域と欠乏領域の詳細を引き出すことができます。クロマ サブチャネルを調整する必要があるかどうか疑問に思っています。
ルマチャンネルのピクセルを枯渇させると、調整しないとクロマがにじみ出てしまうことがわかっています。ガンマ補正を行うときも同じことを考慮する必要がありますか? クロマチャンネルを調整する価値はありますか?
iphone - iOS YUV ビデオ キャプチャ出力でシーン アイテムが繰り返される
ビデオをキャプチャし、結果の YUV フレームを処理します。出力は次のようになります。
それは私の電話の画面に正常に表示されますが。しかし、私のピアは上の画像のようにそれを受け取ります。すべてのアイテムが繰り返され、水平方向および垂直方向にある値だけシフトされます
キャプチャしたビデオは 352x288 で、YPixelCount = 101376、UVPixelCount = YPIXELCOUNT/4 です。
これを解決する手がかり、または iOS で YUV ビデオ フレームを処理する方法を理解するための出発点はありますか?
そしてこれがcaptureOutput関数です
上記のコードに何か問題がありますか?
c++ - sws_scale YUV --> RGB 歪んだ画像
YUV420P
を使用して、画像(H.264
ストリームから受け取った)をに変換しRGB
、サイズを変更したいsws_scale
。
元画像のサイズは です480 × 800
。同じ次元で変換するだけでうまくいきます。
しかし、寸法を変更しようとすると、次のパターンで歪んだ画像が表示されます。
- に変更する
481 × 800
と、途中でカットされたように見える歪んだ白黒画像が生成されます 482 × 800
さらに歪む483 × 800
歪んでいるが色がついている484 × 800
大丈夫です(正しくスケーリングされています)。
このパターンは次のとおりです。スケーリングは、差が 4 で除算される場合にのみ正常に機能します。
これは、画像をデコードして変換する方法のサンプル コードです。すべてのメソッドは「成功」を示しています。