問題タブ [google-assist-api]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - Google-Now-On-Tap に表示されるコンテンツを提供するにはどうすればよいですか?
バックグラウンド
私は、特定のクエリ (電話番号のクエリ、およびその他のクエリ) に応答できるアプリに取り組んでいます。
Google は Android 6 に「Google Now On Tap」(別名「Assist API」)と呼ばれる新機能を導入しました。これにより、ユーザーは画面に表示されているものについてクエリを実行できます(ホームボタンを長押しするか、何かを入力する必要はありません。
Google はそのための開発者向けチュートリアルを提供しています。
問題
アプリを準備する方法を示すコード スニペットが見つかりません。
私が気付いた唯一のことは、 Application クラスから拡張し、内部に OnProvideAssistDataListener を追加して登録できることです。
しかし、それを行う方法について多くの疑問が生じます。
悲しいことに、このトピックはとても新しいので、私はそれについてほとんど何も見つけることができないので、ここで質問したいと思います.
質問
1) この新機能のサンプル、または少なくともより説明されたチュートリアルはありますか?
2) ドキュメントには次のように書かれています。
ほとんどの場合、アクセシビリティ サポートを実装すると、アシスタントは必要な情報を取得できるようになります。これには、android:contentDescription 属性の提供、カスタム ビューの AccessibilityNodeInfo の入力、カスタム ViewGroup が子を正しく公開することの確認、および「アプリケーションをアクセス可能にする」で説明されているベスト プラクティスに従うことが含まれます。
アプリのアクセシビリティ機能と連携する理由と方法は? 子ビュー (またはまったくビュー) を公開することと何の関係がありますか? アプリがまだ実行されていない場合、ビューについてもどうすればよいでしょうか (この機能は、どこのアプリでもアクティブ化されているため)。
これは、フォアグラウンド アプリが自分のアプリである場合にのみ呼び出されると思いますが、この方法の場合、入力内容に応じて、すべてのアプリに表示されるクエリを実際に提供するにはどうすればよいでしょうか?
3) Application から拡張されたクラスは OnProvideAssistDataListener を実装することになっていますか? もしそうなら、なぜそれに登録する必要があるのですか?そうでない場合、Google-Now-On-Tap がどのように動作するのでしょうか? そのようなクラスを持つすべてのアプリを開いて、それらが登録されているかどうかを確認することはできません...
4) ドキュメントには、私が理解できなかったサンプル スニペットがあります。
新機能は各キーで何をしますか? アプリまたは Google-Now-On-Tap で使用されていますか? それについての私のオプションは何ですか?機能が提案するコンテンツをアプリが処理できるかどうかを定義する場所はここですか? AssistContent は、私が見て、アプリがそれを処理できるか無視できるかを判断する入力になるはずですか?
android - Google Assist API を使用してアシスタントを実装する方法
Google Now on Tap について調べて読んでいます ( http://developer.android.com/training/articles/assistant.htmlから)。
その記事から、Now on Tap は Marshmallow にバンドルされている Google の Assist API に基づいており、独自のアシスタントを開発することが可能であることがわかりました (この記事では、Now on Tap のようなアプリを指すために Google という用語が使用されています)。 API を使用します。
ただし、前述の記事では Assist API の使用方法について非常に簡単に説明されているだけであり、それを使用してカスタム アシスタントを開発する方法に関する追加情報は、インターネットで数日かけて検索しても見つかりませんでした。ドキュメントも例もありません。
Assist API を使用した経験のある方はいらっしゃいますか? どんな助けでも感謝します。
ありがとう
android - Android アシストは内部でどのように機能しますか?
ドキュメントを読んだところ、次のように書かれています。
現在のユーザー コンテキストとオーバーレイ ウィンドウに表示される潜在的なアクション (図 1 のステップ 3 を参照) との一致は、アシスタントの実装に固有のものです。ただし、ディープ リンクのサポートをアプリに追加することを検討してください。通常、アシスタントはディープ リンクを利用します。たとえば、Google Now はディープ リンクと App Indexing を使用して、目的のアプリにトラフィックを誘導します。
ディープ リンクとアプリのインデックス作成以外に、onHandleAssist() のAssistStructureのインスタンスとして受け取ったユーザーのコンテキスト情報と、onHandleScreenshot ( )を介したスクリーンショットを利用できます。
具体的に知りたいのは、次の2点です。
1) Android アシストは内部でどのように機能しますか? Google 検索サービスを使用して回答を提供していますか? Google パブリック検索オントロジーを使用していますか?
2) カスタム ソリューションで必要な方法でアシスト結果を提供するカスタム オントロジーを構築できますか?
どんな洞察も大いに役立つでしょう。
android - Android VoiceInteraction および Assist API
Assist および VoiceInteraction と呼ばれる Android API について読みました。私が達成しようとしているのは、NowOnTap のようなアプリです。このためには、ユーザーがホーム ボタンを長押しする前に、画面のコンテンツにアクセスする必要があります。
まずはandroid.intent.action.ASSIST
アクション付きのノーマルアクティビティを使ってみました。
これをさらに掘り下げると、アプリを開く前にスクリーンショットにアクセスするには、VoiceInteractionSession
とそのメソッドonCreateContentView
とを実装する必要があることがわかりましたonHandleScreenshot
。
を使用して UI を作成できonCreateContentView
ませんでした。ログによると、呼び出されることさえありません。この API を使用した経験のある人はいますか?
android - Android アシスタントにコンテンツを追加する
こんにちは 私は製品を扱うアプリを開発しており、Android アシスタントを使用してユーザー エクスペリエンスを向上させたいと考えています。
Google のドキュメントを読み、まず以下のコードを使用してみます。
コードは呼び出されますが、現在のビューをクロールする Google アシスタントの通常のエクスペリエンスには何も追加されません。製品スキーマ ( schema.org ) (@product、@brand、@review ... を使用) も使用してみました。問題は、json オブジェクトが Google 検索で結果を返さないことだと思ったからです。しかし、この新しい json では何も表示されませんでした。
json が Google 検索で決定的でないという事実に問題があると思うとき、またはもっと何かをするのを忘れたとき、私は間違っていますか?
ありがとう
android - プログラムで Google アシスタントを起動するには?
見つけたすべての単純なコンボを試しましたが、これを行う方法がわかりません。ホームの長押しをシミュレートしようとしましたが、Google Now の音声が表示されます。logcat を見てください。
com.google.android.googlequicksearchbox/com.google.android.apps.gsa.staticplugins.opa.OpaActivity
これが私が探しているものなのか、それを複製する方法なのかはわかりません。