人間の手のスキャン画像を入力として取り、手相占いの原理に基づいて未来を予測する小さなソフトウェアを作ろうとしています。手持ちの各種ラインの座標を正確に求めるにはどうすればよいかアドバイスをいただきたいです。私は特定の画像セットを持っていないので、アプローチは一般的なままにしておく必要があります。すべての画像で機能するはずです。
前もって感謝します。
人間の手のスキャン画像を入力として取り、手相占いの原理に基づいて未来を予測する小さなソフトウェアを作ろうとしています。手持ちの各種ラインの座標を正確に求めるにはどうすればよいかアドバイスをいただきたいです。私は特定の画像セットを持っていないので、アプローチは一般的なままにしておく必要があります。すべての画像で機能するはずです。
前もって感謝します。
パッケージを使用することをお勧めします。パッケージjava.lang.Palmistry
と組み合わせて使用することjava.lang.FuturePrediction
もできます。
すべてのジョークはさておき、ここにおそらく有用な提案があります:
お役に立てれば。ちなみに、将来について役立つ情報があれば、ぜひお知らせください。
画像の例を教えてください。
関連するスケールのコントラストのみを保持するために、画像をぼかしたりバンドパスしたりする必要があります(つまり、ぼかしは小さすぎる線やしわを削除し、バンドパスはスケールが大きすぎる特徴も削除します)。
その後、ハフ変換を使用して、画像内の線の長さと方向を見つけることができます。
あるいは、線/しわ/暗い領域を検出してから画像をスケルトン化することが実行可能なアプローチである可能性があります。これにより、線の分岐点と終点が得られます。