2

最近、PC から MacBook Pro に乗り換えました。Objective-C のチュートリアルと Cocoa での開発を始めています。私は日常の仕事で多くの画像処理アルゴリズム開発作業 (ピクセルごとの操作) を行っているので、OS X 用のテスト画像処理アプリを 1 つまたは 2 つ作成したいと考えています。次のような単純なアプリケーション (再利用できる) を作成したいとします。

  1. ファイルメニュー内のファイルを開くオプションから画像を読み込みます
  2. これを GUI 内に表示します。
  3. ボタンをクリックして、ピクセル単位の処理を適用します
  4. 表示画像を更新する
  5. ファイルメニュー内の保存オプションから処理された画像を保存します

ポインタやリンクをいただければ幸いです。

ありがとう

他の情報:

  1. 私はLinux内のOpenCVにかなり精通しています.Objective-C / Cocoa / Xcode環境内での使用はまだ見ていません.これが良い考えかどうかさえわかりません.

  2. GPU アクセラレーションも使用するとよいと思いますが、私は OpenGL/OpenCL に慣れていないため、しばらくはそれを長い指に乗せる必要があるかもしれません。

4

2 に答える 2

5

Apple プラットフォームを検討しているように、CoreImage フレームワークを検討する必要があります。CoreImage フレームワークは、アプリケーションですぐに使用できるように事前に焼き付けられた Cookie のほとんどを提供します。

より高度な目的のために、openCVから始めることができます。

頑張ってください!!

于 2012-08-01T08:48:28.157 に答える
1

As samfisher suggests, OpenCV is not that hard to get working on the Mac, and Core Image is a great Cocoa framework for doing GPU-accelerated image processing. I'm working on porting my GPUImage framework from iOS to the Mac, and it's entirely geared around making accelerated image processing easy to work with, but unfortunately that isn't working right now.

If you're just getting started on the Mac, one tool that I can point out which you might overlook is Quartz Composer. You have to download the separate Graphics Tools package from Apple's developer site to install Quartz Composer, because it's no longer shipped with Xcode.

Quartz Composer is a graphical development tool that lets you drag and drop modules, connect inputs and outputs, and do rapid development of some fairly interesting things. One task it's great for is doing rapid prototyping of image processing, either using Core Image or OpenGL shaders. I've even heard of people using OpenCV with this using custom patches. You can easily connect an image or camera source into a filter chain, then edit the filters and see live updates as you work on them, without requiring a compile-run cycle.

If you want some sample QC projects to play with, I have a couple of them linked from this article I wrote a couple of years ago. They both do the same color-based object tracking, with one using Core Image and the other OpenGL shaders. You can dig into that and play around to see how that works, without having to get too far into writing any code.

于 2012-08-01T15:58:33.620 に答える