プログラム可能な軸コントローラーを備えた顕微鏡で自動焦点合わせをプログラミングしています。テストのために、露出や軸の位置などに応じて画像を返すシミュレーションを実装しました。シミュレーションは良い画像を取得し、それを歪めます-たとえば、明るくしたり、暗くしたりします。
焦点が合っているかどうかの最初の指標は、鋭いエッジです (私のタイプの画像ではうまく機能します)。基本的に、隣接するピクセル間の強度差を合計します。合計が高いほど、焦点が合っています。
私の質問は、焦点の合っていない画像をシミュレートする方法ですか? 誰かがすでにそれを実装しましたか?フィルターのシーケンスは素晴らしいでしょう。
cvSmooth を試してみましたが、現実的な結果が得られませんでした。
PS: 私の現在の回避策は、焦点位置からの距離に反比例して ROI サイズを変更することです。アルゴリズムのテストには適していますが、シミュレーション中に画像が変化しないため、デモンストレーションには適していません。