問題タブ [siri]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ruby - SiriProxy プラグインでの名前付きキャプチャ グループの使用
私は SiriProxy プラグインに取り組んでいます。すべての正規表現を構成ファイルに移動しようとしています。同じコマンドをトリガーする複数のフレーズ (つまり、正規表現) が存在する可能性があり、正規表現は、基になる関数を呼び出すために特定の値をキャプチャする必要があります。
動物関連の行動を記録するコマンドがあるかもしれません。そのために、次の 2 つのフレーズを使用したいと考えています。
ここで、「cat」と「mouse」は 2 つのパラメーターです。猫は追跡者、ネズミは追跡者であり、2 つのフレーズはこれらを異なる順序で使用しています。私の目標 (siriproxy プラグイン フレームワークを使用していることを思い出してください) は、キャプチャされたパラメーターの順序を無関係にすることです。
したがって、私の 2 つの正規表現は次のようになります。
2 つの用語は正しくキャプチャされますが、順番にキャプチャされます。SiriProxy フレームワークを使用して、listen_for コマンドを使用します。これを機能させることができます。
しかし、チェイシーとチェイサーの順序は | の間で入れ替える必要があります。文字。これを標準化して、正規表現のフレーズが何であるか、およびパラメーターの順序が問題にならないようにしたいと考えています。
パラメータを交換しようとすると、値も交換され、間違った動物が追跡者と追跡者になってしまいます。これは、listen_for コマンドが、名前付きのキャプチャ グループを関数呼び出しに渡す際にそれらを「尊重」しておらず、代わりに単に順序付けを行っているかのようです。
SiriProxy を使用するか、一般的な Ruby 正規表現を使用して、似たようなことに取り組んだ人はいますか? 用語を順番に強制するために正規表現自体でできることがあるかどうか、またはこれを達成するために listen_for コマンドを使用する別の方法があるかどうかはわかりません。
ios - プライベート API を使用して、アプリ内で Siri をプログラムで呼び出すことはできますか?
ユーザーがホームボタンを押したままにする代わりに、プログラムでアプリケーション内で Siri を起動したいと考えています。これを実現するために利用できるパブリック API がないため、プライベート API を介してプログラムで Siri を起動できた人がいる場合、どのプライベート API を使用したか教えてください。
Siri からの戻り値には興味がありません。私がしたいのは、それを起動することだけです。
ios - Determining whether iOS application was launched via Siri
I've been looking forever, but haven't found… Do you know if there's a way to determine whether my iOS app was launched by Siri or by the user tapping the app icon?
I need to know because I want to automate a startup action only when my app is launched from Siri.
I was thinking that maybe application:didFinishLaunchingWithOptions or some other API would allow my app to know how it was launched, but that doesn't seem to be the case (or I just missed it).
Any idea if there's some trick available that I could use until Apple publishes some official/public Siri API ?
iphone - iPhone アプリで siri を使用することはできますか?
siri対応のiPhone/iPadアプリを開発したいのですが、本当に可能ですか?誰でも私を助けてくれませんか
ios - データを Siri にプッシュする
私はそれがロングシュートであることを知っていますが、iOSのSiriにデータをプッシュする方法はありますか.
つまり、たとえば買い物リストなどのデータを含むプログラムがあるということです。今、Siri に何を買う必要があるか尋ねたいと思います。Siri は私のリストからスタッフに答えてくれます。
Siri はアプリに統合するための API を提供していないことがわかりましたが、私の質問はその逆です。
audio - Siri の音声データをキャプチャする方法
現在、iPhone での話者認識に関する Cydia の微調整を開発中です。この調整により、現在のユーザーが電話の所有者であるかどうかを識別できます (トレーニング後)。この調整は既に Android に実装されており、コア ライブラリのコンパイルとテストは既に完了しています。私たちが直面している唯一の困難は、Siri からオーディオ データをキャプチャする方法です。私たちは試しました:
フック関数 "- (void)_tellSpeechDelegateRecordingWillBegin" および "- (void)_tellSpeechDelegateRecordingDidEnd" を使用し、AvAudioRecorder を使用してオーディオを録音しました - Siri が録音しているときにすべての AvAudioSession が中断されるため、失敗しました。
フック関数 "- (void)startSpeechRequestWithSpeechFileAtURL:(id)arg1". この関数はオーディオ ファイルに関連しているように見えましたが、Logos tweak フレームワークにフックされた関数を取得できました。
考えられる方法は 2 つあります。
- Siri の割り込みをバイパスできる低レベルのオーディオ レコーダーを実装します。(コールレコーダーのようなもの。)
- iPhone 内に Http(s) プロキシ サーバーを実装し、Siri のサーバーに転送される要求をキャプチャします。
しかし、これらのオプションの経験はほとんどありません。Siriからオーディオをキャプチャするアイデアを持っている人はいますか(外部サーバーではなく電話で)
更新 (2014 年 2 月 12 日)
これを確認してください。「AFSpeechRecorder」という名前のクラスがあることがわかりました。Siriで使用しました。オーディオデータに関連しているに違いないと思います。残念ながら、このクラスは iOS 7 で削除されました。変更についてはわかりません。
ios - iOS テキスト読み上げ API
私はこれについて何も見つけられないようです。テキスト読み上げを可能にする Siri クラスまたは iOS7 の API はありますか? 私がやろうとしているのは、次のようなものだけです:
そして、私のアプリからSiriに言ってもらいます。
私たちはこれを行うことができるはずですよね?些細なことのようです。
ios - Siriからアプリ復帰時の通知
iOS 7 アプリで AVSpeechSynthesizer を使用しています。ユーザーにテキストを読み上げる場所で適切に動作していますが、ユーザーが Siri をトリガーすると、音声が停止し、次のメソッドが呼び出されます。
Siri を介して話したくないので、これは理解できます。ただし、ユーザーがいつ Siri を使い終えてアプリに戻るかを知る方法がわかりません。viewDidAppear/viewWillAppear メソッドはどれも起動していないようです。リッスンするイベントまたはメソッドを知っている人はいますか?