4

野球で打者が揺れる様子を撮りたいのですが、バットがぼやけています。ビデオは30fpsです。

調査の結果、デコンボリューションはモーションブラーを最小限に抑える方法のようですが、iOSアプリの後処理にデコンボリューションを実装できるかどうか、またはどのように実装できるかわかりません。

iOSでデコンボリューションアルゴリズムを適用する方法や、私が行う必要があるかもしれないことなど、誰かが私を正しい方向に向けてくれることを望んでいました...またはそれが可能である場合でも。ある程度の処理能力が必要だと思います。

どんな提案でも大歓迎です...

おかげで、これは私を夢中にさせています...

4

1 に答える 1

1

iOSでのデコンボリューションについて多くの調査と開発者との話し合いを経て(詳細な情報を提供してくれたBrad Larsonに感謝します)、それは不可能であるか、時間の価値がないと確信しています。ハードウェアが計算を処理できる場合(保証なし)、非常に遅くなり、デバイスのバッテリーの多くを消費します。また、アルゴリズムの実装には数か月かかる可能性があると言われています...可能であれば。

これが私がAppleから受け取った応答です...

デコンボリューションアルゴリズムは一般に実装が難しく、計算量が非常に多くなる可能性があります。簡単な研ぎ方から始めることをお勧めします。ビデオのモーションブラーの量によっては、それで十分な場合があります。

CISharpenLuminanceやCIUnsharpMaskなどのシャープフィルターがiOS6で利用できるようになったため、テストはかなり簡単です。

コアイメージフィルターリファレンス https://developer.apple.com/library/mac/#documentation/graphicsimaging/reference/CoreImageFilterReference/Reference/reference.html

今年のWWDCセッション511「CoreImageTechniques」からのCoreImageサンプルコード。それは「Attempt3」と呼ばれています。このサンプルは、iPhone/iPadカメラで撮影されたライブビデオにCIFilterを適用するためのベストプラクティスを示しています。次のページからセッションビデオをダウンロードできます:https ://developer.apple.com/videos/wwdc/2012/ 。

この情報を伝えたかっただけです。

于 2012-11-05T16:29:24.877 に答える