問題タブ [microsoft-speech-platform]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
1 に答える
13082 参照

c# - Microsoft 音声認識プラットフォーム

Windows 7 で正常に動作する System.Speech を使用して音声認識用の C# アプリを作成しました。ただし、Windows 2003 (x86) で動作する同じアプリを作成した後です。

私のプログラミング環境: Windows 7 x64 Pro Visual Studio 2008

私のプログラミング環境でこのアプリケーションを開発するために、以下をインストールしました。

1.Microsoft Speech Platform - サーバー ランタイム (バージョン 10.1) (x86)

http://www.microsoft.com/downloads/details.aspx?FamilyID=674356C4-E742-4855-B3CC-FC4D5522C449&displaylang=en&displaylang=en

2.Microsoft 音声プラットフォーム - ソフトウェア開発キット (SDK) (バージョン 10.1) (x86)

http://www.microsoft.com/downloads/details.aspx?displaylang=en&FamilyID=4d36908b-3264-49ef-b154-f23bf7f44ef4

3.Microsoft Speech Platform - サーバー ランタイム言語 (バージョン 10.1)

(ここでは en-GB の SR をインストールします)

http://www.microsoft.com/downloads/details.aspx?displaylang=en&FamilyID=f704cd64-1dbf-47a7-ba49-27c5843a12d5

私のプログラムでは、System.Speech の代わりに Microsoft.Speech.Recognition を使用しました。

SDKドキュメントからこのコードを貼り付けました:

また、プロジェクトのプロパティでプラットフォーム ターゲットを x86 に設定しました。コードはコンパイルされますが、実行またはデバッグすると、認識が機能しません。私は何が欠けているのですか?

0 投票する
3 に答える
11628 参照

speech-recognition - Win7x64にMSSpeechPlatform11を正しくインストールできません

だから私はMSSpeechPlatform 11 + SDK+TTSとSR用のロシア語を起動して実行しようとしています

  1. SpeechPlatformRuntime.x64.msiのインストール
  2. MicrosoftSpeechPlatformSDK.x64.msiのインストール---どちらも正しい「プログラムファイル」フォルダに移動します。
  3. MSSpeech_SR_ru-RU_TELE.msiのインストール
  4. MSSpeech_TTS_ru-RU_Elena.msiのインストール---両方とも「ProgramFiles(x86)」フォルダーに移動します。- 大丈夫ですか?

SpeechRecognitionEngine.InstalledRecognizers()を見ると、次の2つの項目が返されるため、いいえのようです。

しかし、私はこのレコグナイザーをインストールしたことがありません。Win 7コンポーネントを調べましたが、これに関連するものは見つかりませんでした。

したがって、質問は次のとおりです。

  1. x64プログラムファイルに言語をインストールする必要がありますか?もしそうなら、それを行う方法は?
  2. ru-RU言語を表示するようにレコグナイザーとシンセサイザーを構成するにはどうすればよいですか?

どんな助けでも大歓迎です。

0 投票する
2 に答える
680 参照

speech-recognition - Microsoft Speech Platform - サンプリング レートとビット深度

音声のサンプリング レートとビット深度がシステムのトレーニング データと一致する場合、認識結果は最適になります。

では、Microsoft Speech Platform で使用されている正確なサンプリング レートやビット深度 (および/またはステレオ/モノラル) を知っている人はいますか? もしそうなら、どこでこの情報を入手したか覚えていますか?

SAPI ではなく、MS Speech Platform を使用していることに注意してください。両方が同じトレーニング データを使用していない限り、それは同じではありません。正確に言うと - 私はこれを使用します :

私の最初の試みは、ページにある C++ コードの例に基づいています。

0 投票する
1 に答える
1754 参照

text-to-speech - Microsoft Speech SDK 11 言語パックの使用方法

MS Speech SDK 11 を Microsoft Anna だけでなく、さまざまな音声で使用したいと考えています。言語パックをダウンロードしてインストールしましたが、まだ利用できません。MS Speech SDK 11 で異なる言語を使用するにはどうすればよいですか?

0 投票する
1 に答える
1236 参照

c# - Micorosft 音声認識エンジンを使用した音声比較

ユーザーが話すことができるアプリケーションと単語があり、彼が話した単語の正確さのパーセンテージが与えられます。つまり、エンジンが単語をどれだけ明確に認識したかです。

これはすべて正常に機能しますが、辞書として認識エンジンに与える辞書にどの単語を追加する必要があるかというジレンマがあります。

ケースペンに「p」で始まる単語を指定すると、ペンダント、ペントなどの単語がすべて辞書に追加されます。その場合、認識された単語を「ペン」として取得していません。

代わりに、「ペンダント」などの他の単語を常に取得します

しかし、「pe」、「pen」などの限られた単語のみを辞書に追加すると、同じ録音ファイルに対して、認識された単語は「Pen」のみになりました。

それは明らかに、私たちが辞書に与える単語に依存することを意味します.

私はクライアントに同じことを伝えました.しかし、彼らが望んでいるのは、与えられた入力単語に対しても間違った単語を話すことができるということです.

私はこの問題のためにできることをしましたが、私のクライアントは宇宙とは別の何かを必要としています。

コード :

ここでこれに対する解決策を持っている専門家はいますか?どんな助けでも大歓迎です。

ありがとう

0 投票する
1 に答える
578 参照

c# - Microsoft 音声認識エンジンの音響モデルの作成

CMU Sphinx の場合と同じように、Microsoft 音声認識エンジンの音響モデルを作成することは可能ですか?

CMUSphinx リンク : http://cmusphinx.sourceforge.net/wiki/tutorialadapt

少し検索しましたが、適切な答えや解決策が見つかりませんでした。

誰でも私を正しい方向に向けることができますか?

ありがとう