自律型ロボットがカメラを使用して壁に囲まれた迷路をナビゲートすることが私の目標です。カメラはロボットの上に固定され、壁とロボットを上から見ることができるように下を向いています。
私の経験から最も簡単に思えた私が取ったアプローチは、
- 赤い壁を抽出するために画像にしきい値を設定します
- キャニー エッジ検出を実行する
- ハフ変換を使用して、エッジから強い線を検出します
パラメータを微調整した後、以下に示すように
ロボットを前進させて、赤い壁に「ぶつかる」のを避けたいです。問題は、ハフ変換から壁のエッジごとに複数の線が検出されることです。私が持っていた 1 つのアイデアは、k-means クラスタリングを実行して線をクラスター化し、各クラスターの中心 (平均) を見つけることでしたが、壁のエッジの数 (したがって、k-means アルゴリズムに入力するクラスターの数) はわかりません)迷路をナビゲートする際にいつでも持っています(前方の壁、後方の壁、複数の曲がり角の交差点など)。
迷路をナビゲートする際に、いつでもロボットの位置 (すべての画像フレームで常に固定されている) を比較するための一貫した壁の位置を確保するための良い方法を見つけるための助けをいただければ幸いです。また、この問題に対する他のアプローチにもオープンです。