ライブ カメラ ストリームが地面の障害物をキャプチャし、ユーザーに警告を発する Android アプリを作成したいと考えています。これは、視覚障害者向けのアプリケーションとして意図されています。
画像処理の経験がないため、どの技術がこれに最も適しているかを理解するのに途方に暮れています。OpenCV の例をいくつか調べましたが、プロジェクトをどこから開始すればよいかについての洞察はあまり得られませんでした。
私が知る必要があるのは;
- プロジェクトを開始するのに役立つ可能性のあるチュートリアル (基本的な画像処理から始めるべきですか?)
- Java と C# しか知らないので、C++ を学ぶ必要がありますか?
- プロジェクトで使用できるテクノロジー。(拡張現実などでこのようなことを達成することは可能ですか..)
- Android 画像処理を実現しようとする以前のプロジェクト/チュートリアル/例
上記のポイントのいずれかに対する回答を提供していただければ、非常に感謝します。