0

シナリオは、iPhone カメラで見た画像をアプリで (可能であればバックグラウンドで) 処理することです。

たとえば、アプリが実行されているときに、ユーザーが電話を赤いボール紙の上に置き、「電話が赤い表面に置かれました」というアラートビューを表示したい場合 (これは私がやりたいことの簡略化されたバージョンですが、質問を直接的にするためです) )。

これが理にかなっていることを願っています。ここには2つの別々の懸念があることを知っています。

  1. アプリのバックグラウンドでカメラからの画像を処理する方法 (これができない場合は、必要に応じてボタンをクリックしてプロセスを開始できます)。
  2. 画像を処理して、それが置かれている無地の色を示します。

ヘルプ/ガイダンスをいただければ幸いです。

ありがとう

4

2 に答える 2

0

1)画像キャプチャ

カメラから継続的に画像を取得するアプリには、メディアキャプチャ(カメラ、iMovieなど)と拡張現実アプリの2種類があります。

メディアキャプチャ用のiPhoneSDKチュートリアルは次のとおりです。

https://developer.apple.com/library/ios/documentation/AudioVideo/Conceptual/AVFoundationPG/Articles/04_MediaCapture.html#//apple_ref/doc/uid/TP40010188-CH5-SW3

iPhoneSDKでカメラにアクセスする

拡張現実アプリは、処理/オーバーレイのためにカメラから継続的に写真を撮ります。利用可能なARキットのいくつかを調べて、それらがカメラから継続的なストリームを取得し、ピクセルを分析する方法を確認することをお勧めします。

Panasonic VIERA AR Setup Simulatorのような拡張現実(AR)アプリを起動する

http://blog.bordertownlabs.com/post/157320598/customizing-the-iphone-camera-view-with

2)画像処理

画像処理は非常に大きなトピックであり、他の複数の場所で取り上げられています。

https://photo.stackexchange.com/questions/tagged/image-processing

https://dsp.stackexchange.com/questions/tagged/image-processing

https://mathematica.stackexchange.com/questions/tagged/image-processing

..しかし、初心者の場合は、ヒューリスティック分析を使用して、探しているものを判別する必要があります。色の濃さのヒストグラムを生成するのと同様に、キャプチャされたピクセルを多数の場所(たとえば、コーナー+中央)でサンプリングすると役立つ場合があります。赤が多いが青と緑がほとんどまたはまったくない場合は、レッドカードです。

于 2012-04-24T12:30:38.043 に答える
0

2 つの質問に対する一般的な回答:

  1. 画像のバックグラウンド処理は、タイマー イベントとしてトリガーできます。たとえば、30 秒ごとに、画面上の画像をキャプチャし、背後の処理を行うとします。処理がコンピューティング/時間集約的でない場合、これは機能するはずです
  2. たとえば、1 つのピクセルの色をプログラムで知ることは技術的に可能です。画像全体が 1 色であることが確実な場合は、その方法を試すことができます。ランダムな点をいくつか取得し、画像内のピクセルの色を取得します。ただし、画像 (例では赤いボード) が画像または複数の色で構成されている場合は、詳細な画像処理技術が必要になります。

お役に立てれば

于 2012-04-24T11:39:17.690 に答える