次のことを実行できるアクセシビリティ サービスを Android アプリに実装したいと考えています。
=>アプリ全体で画面上のタップ/クリックを取得します。
=>タップ/クリックされたビューを取得します。
最初は、セキュリティ上の理由からそうすることができないと思っていましたが、いくつかの調査を行っているときに、次のことができるアプリ (ネイティブ クリップボード) に出会いました。
=>EditText
任意のアプリからのタップを検出
=>それらEditText
の s に値 (文字列) を追加します。
また、タップした内容を話すGoogle のトークバックも見ました。話すには、アプリ全体で (テキストを取得するために) ビューにアクセスする必要があります。
これらのアプリは明らかに「ユーザー補助サービス」を利用していますが、それをどのように実装できるか知りたいですか?
私は主に、達成する必要があることに関するチュートリアルやものを見つけますが、アプリにアクセシビリティ サービスを実装するためのものを見つけるのに苦労しています。私のような初心者には技術的すぎる Android の公式ドキュメントにアクセスしました。(私は最初、Youtube、SO、およびチュートリアルの Web サイトから学ぶことを好みます)。また、これらのことをカバーする他のチュートリアルを特定して教えていただければ幸いです。