問題タブ [webspeech-api]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
javascript - Web Speech API 「既知の単語を検出する」
特定のキーワードを検出できるアプリを開発中です。私はGoogleのウェブスピーチを使用しています。
ユーザーの声を録音して印刷することはできますが、特定の単語を検出できるようにしたいと考えています。
これを行う方法が見つからないようです。この質問Detecting known words using the Web Speech API を見つけましたが、リンク先の回答のサイトはなくなりました。
誰でもこれに光を当てることができますか?どんな助けでも素晴らしいでしょう。乾杯! ここにフィドルがあります
javascript - 音声認識は長く聞く
問題を解決する方法がわかりません。あなたの助けが必要です。私はイオンで書かれたアプリを持っており、anyang to Speech Recognitionを使用して、ユーザーの発言とその応答を聞きます。それはWeb上でかなりうまく機能しています-イオンサーブを使用していますが、Androidデバイスの音声認識で実行すると、30秒から数分まで長い時間がかかります-「ショップ」などの単語を1つだけ言います。
今回はどうにかして減らす方法はありますか?または、タイムアウトを設定できますか?
どんな助けにも感謝します。ありがとう。
編集:コードは次のようになります
Edit2:これはこれと同じです。結果は2分待たなければなりません
javascript - Web Speech API: 一連の語彙による精度の向上
特定のアプリケーション用にボキャブラリーを設定して、Web 音声 API を改善できますか?
javascript - Firefox で音声認識が機能しない
firefox のwebspeech-apiをテストしようとしていますが、コンソールにReferenceError: SpeechRecognition is not definedというエラーが表示されます。
about:config で有効media.webspeech.recognition.enable
にしてmedia.webspeech.synth.enabled
フラグを設定しました。
SpeechRecognitionを firefox で動作させる方法はありますか?
javascript - Odd behaviour in Google Web Speech API
I'm working with Google's Web Speech API using Google Chrome (55.0.2883.87) and I'm experiencing some very weird behaviour.
When attempting to speak out names, followed by a number (like John 4
) it usually just speaks out the name and the number, as it should - but for some names it puts the word chapter
between the name and the number, so Daniel 4
becomes Daniel Chapter 4
.
I have picked up some random names and tested them with the following code:
The msg
variable doesn't include the word chapter when logging it with console.log()
Of these 9 names, the names John
and Daniel
are spoken with the word chapter
between them.
Question
Why does this happen, and which criteria determines which names are affected?
google-chrome - Web Speech API は、入力がないまま時間が経過するとリッスンを停止します
Web Speech API を使用していますが、音声入力がない状態で少し時間が経過すると (1 ~ 2 分)、完全に聞こえなくなります。解析されたテキストをコンソールに記録するようにしているので、これはわかっていますが、1、2 分話さないと、これを停止します。
これを修正する方法はありますか?
javascript - Web Speech API における文法の効果
Web Speech API の例では、常に文法が指定されています。たとえば、MDN の color change exampleでは、文法は次のとおりです。
ただし、実際に API を使用すると (Chrome 54.0.2840.71)、結果関数:
- 指定された文法に適合しない文字列を返す場合があります
- 音声を記述する構文木を提供しない
では、文法は実際に何をするのでしょうか? これらの動作のいずれかを取得するにはどうすればよいですか (文法に制限し、解析ツリーを表示する)?