0

Microsoft のインプロセス音声認識エンジンを使用してアプリケーションを作成しようとしています。私のアプリケーションでは、口述文法を使用することもあれば、SRGS を使用することもあります。もちろん、SRGS を使用しても問題はありません。

入手可能な最高のマイクの 1 つ (Andrea USB サウンド カードを搭載した Sennheiser ME3) を使用していますが、認識結果は許容できるものとはほど遠いものです。私のアプリケーションは特定のドメインで動作します。システムのユーザーが話す可能性が高い単語やフレーズがいくつかあります。私の質問は、ディクテーション文法を使用すると同時に、アプリケーションのドメインで重要な単語を指定する方法があるかどうかです。これは、開発者が提供する単語とフレーズのリストに対してのみ、音声認識エンジンの言語モデルを部分的に変更する一種です。

4

1 に答える 1

1

いくつかのオプションがあります。

  1. 珍しい単語のセットがある場合は、ISpLexiconインターフェイスを使用して単語を追加できます (またはWindows Speech Recognition Speech Dictionaryを使用します)。
  2. ディクテーションの認識は、コンテキストによって劇的に向上します。認識を更新するとき (およびユーザーがキャレットの位置を変更するとき) にSetDictationContextを呼び出す必要があります。
  3. 最後に、ディクテーション リソース キットを使用して、新しいディクテーション文法を定義できます。これは非常に複雑なプロセスであるため、最後の手段としてのみ実行してください。
于 2013-07-25T06:45:09.240 に答える