問題タブ [system.speech.recognition]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c# - System.Speech.Recognition - AppendChoices が廃止されたのはなぜですか?
で .NET 音声認識をいじり始めていますSystem.Speech.Recognition
。非常に基本的なフレーズをいくつか認識できましたが、イベント ハンドラーで、ピザの注文の例に示されている特定の情報を取得したいと考えています。
regex を使用して e.Result.Text の値を解析できましたが、ピザの注文の例では という非常に便利なメソッドを使用しましたAppendChoices
。このメソッドの優れた点は、基本的に可能な単語のリストをキーに関連付けることです。イベント ハンドラーが呼び出されると (フレーズが認識された後)、 を参照して値にアクセスできますSemantics[<your key string here>]
。ただし、Semantics はまだ利用可能ですが、AppendChoices は非推奨になっているように見えるため、それを利用する方法がわかりません。
イベントハンドラーで正規表現を使用して、音声コマンドの引数が何であるかを把握する唯一の手段はありますか?
c# - Windows7 での音声認識 C# WPF アプリの 2 つの問題
SpeechRecognizer クラスを使用して簡単な文法をセットアップし、簡単な単語を認識するアプリを作成しました。
Win7 で実行すると、2 つのことがわかります。
1) アプリを初めて起動すると、音声認識バー (何か) が表示されますが、アプリの UI が表示されません (タスク マネージャーで確認できるように実行されています)。(最初のインスタンスを強制終了した後) 2 回目にアプリを起動すると、正常に表示されます (Windows の音声認識ツールバーが既に実行されています)。
2)アプリで認識している単語の1つを2回話すと、イベントがトリガーされません-代わりに、アプリのテキストが選択され、認識された単語の履歴がリストボックスに出力されます。
注: メイン画面から履歴リストボックスを削除すると、期待どおりに動作します。どうやら、Win7は最初にUIで単語を見つけようとし、見つからない場合にのみ、プログラムイベントをトリガーします...??
どちらの問題も私には非常に奇妙に思えます。
アプリの詳細: C# で記述された VS2008/.NET 3.0 WPF アプリです。このアプリケーションにより、ユーザーは Midi コマンドを送信するための設定グループ (パッチ) を編集できます。各パッチにはフレーズがタグ付けされています。そのフレーズが話されると (アプリによって認識される)、設定されたすべての Midi コマンドが出力に送信されます。ユーザーがリコールしたパッチの履歴は、アプリのメイン画面の「履歴」リストに出力されます。
誰かがこれで私を助けてくれることを願っています。どんな提案でも大歓迎です。
ありがとう、マーク・ジャコビ
c# - System.Speech を使用してオーディオ ファイルをテキストに変換する
16000 で Android フォンを介して記録された .wav ファイルを、C# を使用してテキストに変換しようとしています。つまり、System.Speech 名前空間です。私のコードは以下に記載されています。
は、サンプルの .wav "Hello world" ファイルで完全に機能しています。しかし、電話で何かを録音して PC に変換しようとすると、変換されたテキストは私が録音したものとはまったく異なります。音声ファイルが正確に書き起こされていることを確認する方法はありますか?
c# - GrammarBuilder でさまざまな選択順序を許可する方法
私は単純な音声認識アプリケーションに取り組んでいます。GrammarBuilder のヘルプが必要です。これが私が試したことです:
このコードは、ユーザーが choice1、choice2、choice3 の順に何かを言うことを想定しており、うまく機能します。しかし、choice1、choice2、そしてchoice2とchoice3の任意の組み合わせを期待するコードが必要です。これを実装する方法がわかりません。
c# - Kinect で System.Speech を使用する
私は、大学のプロジェクト用にスピーチからテキストへのキャプション アプリケーションのプロトタイプを開発しています。プロジェクトの後半でジェスチャ認識を使用する予定なので、追加のマイクを使用するのではなく、Kinect をマイク ソースとして使用することをお勧めします。私のアプリケーションのアイデアは、長くて複雑な文などの自発的な発話を認識することです (ただし、発話の口述が完璧ではないことは理解しています)。Microsoft.Speech を参照しているが、System.Speech を参照していない Kinect 音声サンプルを多数見てきました。音声エンジンをトレーニングし、DictationGrammar を音声認識エンジンに読み込む必要があるため、Microsoft.Speech が唯一の選択肢です。
Kinect をダイレクト マイク オーディオ ソースとして使用している間、なんとか動作させることができましたが、ビデオ プレビューとジェスチャー認識のために Kinect をロードしているため、ダイレクト マイクとしてアクセスできません。
これは、ジェスチャーなどのために Kinect ハードウェアをロードせずにマイクに直接アクセスするコードであり、完全に機能します。
これは、Kinect がロードされた後、Kinect を介してアクセス ソースにアクセスする必要がある場所です。Kinect は何も実行していません。これは私がやりたいことです:
問題は、現在の Kinect SDK で Microsoft.Speech の代わりに System.Speech を使用することさえ可能ですか? 2 番目のコード サンプルで何が間違っているのでしょうか?
GetKinectRecognizer メソッド
system.speech.recognition - System.Speech を使用して正確なフレーズをコマンドとして認識するにはどうすればよいですか
たとえば、画面の中央でマウスをクリックするコマンド「center」が必要だとしましょう。些細な例ですが、文法的な側面にもっと興味があります。
"center" だけを一致させたい場合はどうすればよいですか?
一時停止して「中央」と言ってから一時停止すると一致します。
でも「私は部屋の真ん中にいる」と言ったら一致しません。
次のコードは、フレーズのどの部分で話されていても、「center」という単語に一致するようです。
c# - 英語以外の Win Vista Business で System.Speech を使用する方法
制御プログラムに音声認識を試してみたいです。C# でテスト プログラムを作成しましたが、これをデバッグしているときに毎回エラーが発生しました -
エラーの原因はengine.LoadGrammar(new DictationGrammar());
On my notebook I installed CZECH OS Vista で、OS の言語と音声認識の言語が違うのかもしれません。
英語以外の OS で system.speech を使用して開発する方法はありますか、またはいくつかのステップで間違っていますか? 言語に問題はありません。音声認識に英語を使用したいのですが、英語の Vista または MUI 言語パックが入手できません。
完全なコードは以下のとおりです。
どうもありがとう!
c# - System.Speech.Recognitionは「音声トレーニング」を利用していますか?
System.Speech.Recognition
正常に動作するからの簡単なコードがいくつかあります。
Windows 7を使用している場合、でスピーチトレーニングを行い"Control Panel" -> "Speech Recognition" -> "Train your computer to better understand you"
ます。
私のプログラムは、行われたトレーニングを自動的に利用しますか?トレーニングのメリットは、ユーザーまたはマシンに基づいていますか?これらのスピーチの「プロファイル」は(簡単に)移動できますか?