問題タブ [microsoft-speech-api]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c# - C# microsoft 2013 用の Microsoft.speech のインストール
そこで、このアドレスhttp://www.microsoft.com/en-us/download/details.aspx?id=27226で Microsoft speech SDK をダウンロードしました 。
インストーラーを実行しましたが、Visual Studio 2013 を使用して C# プログラムに含めることができるように、Visual Studio でそれを参照する方法がわかりません。
前もって感謝します!
speech-recognition - System.speech アプリケーションのシステム要件
私は、マイクロソフトの System.speech 認識エンジンを使用して、大学の学位を取得するためのばかげた小さなプロジェクトを作成しています。そのようなソフトウェアを実行するための最小要件は何かを知りたかった. ありがとう。
windows - Microsoft SAPI サブ言語の問題
私の問題は次のとおりです。Windows 10 の表示言語が英語 (英国) に設定されていると、SAPI インプロセス認識エンジンが文法ファイルの読み込みを拒否します。
システム表示言語が英国に設定されています。音声認識言語は英国です。システム ロケールは UK です。SAPI xml-format Grammar では LANGID=809 も指定されています。私が知る限り、EVERYTHING は EN-GB に設定されていますが、それでも文法は読み込まれません。
ただし、表示言語が英語(米国)に設定されている場合は、ロードして問題なく動作します。
これで何が起こっているのか誰か知っていますか?それは非常にイライラします...単純なものが欠けていることを願っています。
SAPI 初期化コード:
すべての設定が一致していることを確認しても、表示言語が英語(米国)ではない場合、「文法を読み込めません。言語設定を確認してください」というエラーが表示されます...
私よりも知識のある方からのあらゆる種類の洞察を本当に感謝します.
ファーリー
c# - Azure でのテキスト読み上げ用の SpeechAPI の呼び出し
次の非常に基本的な TTS コードをローカル サーバーで実行しています。
このコードは、VS 2015 プロジェクトに参照を追加した System.Speech に依存しています。正常に動作しますが、私が読んだことと試してみたところ、コードが Azure でホストされている場合、これは機能しないことがわかりました。実際にAzureでTTSを実行できるかどうかについて、SOクエリに関するいくつかの投稿を読みました。確かに、2 年前にはそれは不可能に見えました。Windows azure Web サイトで System.Speech を取得するには?
すべての道は Microsoft Speech API につながっているようです 。しかし、私の質問はこれです。SpeechAPI を実際に呼び出すにはどうすればよいですか? 上記の簡単なコード例を azure で実行する場合に機能させるには、何を変更する必要がありますか?
windows-10 - Microsoft 音声認識のデフォルトと API
Windows 10 で Microsoft Speech Recognition を使用して、トレーニング演習を行い、テキストをワードパッドに口述して修正し、辞書に単語を追加するなどを行ってきました。このソフトウェアを使用して .wav ファイルを転写したいと考えています。Windows Speech Recognition API を使用してこれを行うことができるようですが、これには独自の文法ファイルを作成してロードする必要があるようです。これは、基本的に、同じ構成要素を使用するが別の新しい音声認識エンジンを作成することを示唆しています。スタートメニューの「音声認識の開始」をクリックすると実行されるプログラムから。特に、トレーニングや構成の違いにより、パフォーマンスが異なります。
私はこれで間違っていますか?そうでない場合、デフォルトの音声認識エンジンが使用するすべてのデータを取得して、その動作を正確に再現できる方法はありますか? .wav ファイルを書き起こすために、独自の文法ファイルと個別のトレーニング履歴などを使用して個別の音声認識エンジンを作成する必要がある場合は、それで十分ですが、ここで何が起こっているのかをよりよく理解したいと思います.
delphi - Delphi XE2 以降を搭載した Windows 10 で SpeechAPI5.* を使用するにはどうすればよいですか?
Delphi XE2のSpeechAPI 5.4の例があります。その一部を次に示します。
このコードは、XP から 8.1 までのすべての Windows で正しく機能します。残念ながら、Windows 10 では例外が発生します。ログファイルで私は読むことができます:
標準の Windows テキスト読み上げツールは、利用可能な2 つの音声を表示します。
TSpVoice
動的に作成することが重要です。
例外なくすべてのボイスを操作するにはどうすればよいですか?