Apple のサンプル アプリhttps://developer.apple.com/library/content/samplecode/SpeakToMe/Introduction/Intro.htmlから SFSpeechRecognizer をセットアップしました 。
以前に認識された他の単語に関連していない個々の単語を認識エンジンに認識させることが可能かどうか疑問に思っていました。
たとえば、現在の認識エンジンは、「スクロール」が発声されたときに文を形成しようとし、意味のある単語の最適な書き起こしを見つけて、「ストップ」が発声されたときに「ダウン」のようなものに変更します。前の単語のコンテキストでより意味があります。
しかし、これは私が望むものではありません。私のアプリは、聞きながら関数を呼び出すコマンドとして個々の単語を聞きたいからです。
継続的に単語をリッスンし、発話された個々の単語のみをキャプチャするようにフレームワークを実装する方法はありますか?