問題タブ [microsoft-speech-platform]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c# - Microsoft Speech Platform: 単語の繰り返しを認識
Microsoft Speech Platform を使用して、画面に出力するときに音声を認識します。しかし、問題があります: たとえば、文法があります (GrammarBuilder と Choices による構造体 - "red"、"green"、"black")
「赤緑黒」と言うと、「赤」、おそらく「赤緑」しか得られませんが、「赤緑黒」は得られません。
いくつかのコード:
では、この問題を解決するにはどうすればよいでしょうか。ルールのある SGRS 文法を作成する必要がありますか? 文法ファイルは、次のような単語を含む txt ファイルです。
Dictionary.txt
c# - Microsoft Speech Synthesizer PhonemeReached イベントは、認識できない音素の文字を生成します
Microsoft speech SDK を使用して、話しているテキストの文字列から音素のリストを取得しようとしています。PhonemeReachedEventArgs.Phoneme を調べると、別の文字セットを使用していると思われるものが表示されます。
たとえば、テキストは次のとおりです。
「これは Microsoft Speech のサンプル センテンスです」
次のような音素の文字列を作成します。
↑)'%∟↕'♂ %☼▼'§!)☼!'.←¶ ►▲&☼'
読みやすい音素の文字列を取得するために何をする必要があるかについて何か提案はありますか?
windows-8 - Microsoft Speech Platform 11 は Win8 とタブレットをサポートしていますか?
Microsoft Speech Platform 11 は Win8 とタブレットをサポートしていますか? タブレットについて - Win タブレットに対応していますか?
ありがとうございました!
c# - 2 つ以上の Microsoft 音声認識エンジンを使用できますか?
同じマシンで (同じ言語で) 2 つ以上の Microsoft 音声認識エンジンを使用できますか?
音声認識のタスクがあり、大きすぎる文法 (2000 以上の単語) を認識しようとしています。
そこで、この大きな文法を 2 つの文法に分けようと思います。最初のエンジンへの 1 つの文法ロードと、2 番目のエンジンへのその他のロード。
しかし、私にはわかりません。この SpeechRecognitinEngine インスタンスは、2 つの異なる音声エンジンを参照していますか、それとも 1 つのエンジンにリンクされているだけですか?
これが私のコードです:
このコードは、両方のエンジンから「1 つ」と入力すると、うまく機能します。
私のポイントは、2 つ以上のエンジンを作成し、2 つ以上の大きな文法をロードし、それが異なるエンジンで認識される場合は、パフォーマンス (および検証) の認識を得ることです。
ありがとうございました!
PS お返事ありがとうございます!
わかりました、コードの一部を書き直します:
そこで、その行で新しい文法を作成します。そして、私はそれを2番目のエンジンにロードできます。
したがって、gr1 は Engine1 にロードされ、gr2、g3- は Engine2 にロードされます。
ばかげた質問ですが、Engine1 と Engine2 は、この文法 (文法は大きい) を認識するエンジンへの参照に過ぎないのでしょうか? 私は自分のマシンで 1 から N のエンジンを作成し、1 から N の文法 (1 つの大きな文法を 1 つのエンジンに) をロードし、それを認識しようとしているので、そうでないことを願っています。ありがとうございました!
visual-studio - Microsoft 音声プラットフォーム
https://msdn.microsoft.com/en-us/library/office/hh361572(v=office.14).aspxの指示に従ってい
ますが、ランタイム、音声、および SDK をインストールした後、できませんでしたMicrosoft.Speech.Synthesis
Visual Studio 2013 community edition update 4 を使用している Windows 7-64 ビット マシンで名前空間を参照する方法がわかりません。
SDK の本当の目的と構成方法。
インストーラーは64bit版で、音声合成は動作します
PS: 私の質問がここで不適切だと本当に思う場合は、コメントまたは回答に記入して、どこに置くべきかを提案してください。10時間以内にあなたの判断から遠ざけることができてうれしいです
c# - SpeechSynthesizer.SelectVoice() が「一致する音声がインストールされていないか、音声が無効になっています」で失敗する
Scott HanselmanのBabySmashコードを変更して、他の言語をサポートしています。
- これらの手順に従って、音声プラットフォームと新しい言語をインストールしました。
言語がレジストリに表示されるようになりました。
Windows で言語を選択して再生できるようになりました。
System.Speech.Synthesis.SpeechSynthesizer.GetInstalledVoices()
声を返すようになりました。- ただし、以下のコードでは、 「System.ArgumentException: 音声を設定できません。一致する音声がインストールされていないか、音声が無効になっています。」
SelectVoice()
というエラーがスローされます。
にアップグレードしてみました
C:\Program Files (x86)\Reference Assemblies\Microsoft\Framework\.NETFramework\v4.6.1\System.Speech.dll
。のバージョンと言語パックが一致することを確認しました。
Microsoft.Speech.dll
このコードは、既にインストールされているデフォルトの音声で機能します。
必死になって、リフレクションを介して直接呼び出すことさえ試みまし
System.Speech.Internal.Synthesis.VoiceSynthesis.GetVoice()
たが、まったく同じエラーが発生しました。
ご協力いただけると大変助かります。ありがとう。