問題タブ [webspeech-api]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
google-chrome - Web Speech API Grammar は開発者に公開されていますか?
私は現在、Webkit Speech Recognition でいくつかの RnD を行っており、アプリケーション固有の文法ファイルを作成したいと考えていました。W3C の定義に従って、次のコードを書きました。しかし、これらの単語の認識において改善された結果を示しているようには見えません。これについて何か助けていただけますか?
var 認識 = 新しい webkitSpeechRecognition(); approval.grammars.addFromUri("voice/api_grammar/weight.grxml");
文法ファイルは、次のような単純なファイルです。
ios - iOS アプリケーションの構築における Google Voice Recognition API の使用
音声認識機能を搭載したiOSアプリを開発しています。音声認識とテキスト読み上げの目的で Google Web Speech API を使用する方法を見つけました。それは正常に動作します。iOS アプリケーションで Google Web Speech API を使用することは合法でしょうか? また、この API の使用制限はありますか? 利用規約を探してみましたが、見つかりませんでした。
html - x-webkit-speech API または Npt にはライセンスが必要ですか?
Google の x-webkit-speech API を介して音声検索をウェブサイトに統合したいと考えています。音声検索はウェブサイトのパブリックで使用されます。Google からのライセンスが必要ですか? この API の使用条件はどこで確認できますか?
javascript - 1 つの div の結果を textarea-div にコピーする
私は、Webspeech API を使用して音声で制御するオプションが必要なシステムに取り組んでいます。私の問題または質問は、音声認識の結果 (「transcript-div」に保存されている) を「usercomment textarea-div」にコピーするにはどうすればよいかということです。ユーザーが何かを言うように、認識された文字列はユーザーコメントに自動的にコピーされます。
対応するコード行:
音声認識:
デバッグの目的で、認識されたフレーズを表示する別の div を作成しました。これは機能しています!
そして、「transcript-Div」の内容を usercomment -textarea-Divにコピーする必要があります:
私は次の関数でこれをやろうとしました:
fillUsercomment 関数は機能します (この関数を手動で呼び出すと、内容が usercomment テキストエリアに貼り付けられます。しかし、認識された出力をオンザフライでテキストエリアに貼り付けるには、コードをどのように変更する必要があるのでしょうか?
ありがとう!
dom-events - speechSynthesis で音声のリストを取得する (Web Speech API)
次の HTML は、最初のクリックでコンソールに空の配列を表示します。
2 回目のクリックで、予想されるリストが表示されます。
onload
この関数を呼び出すイベントを追加すると ( <body onload="test()">
)、最初のクリックで正しい結果が得られます。最初の呼び出しがonload
まだ正しく機能しないことに注意してください。ページの読み込み時に空を返しますが、その後は機能します。
質問:
ベータ版のバグかもしれないので、 「なぜ」の質問は諦めました。
window.speechSynthesis
ここで問題は、ページの読み込み時にアクセスするかどうかです。
- この問題に最適なハックは何ですか?
speechSynthesis
ページの読み込み時に読み込まれることを確認するにはどうすればよいですか?
背景とテスト:
Web Speech API の新機能をテストしていたところ、コードで次の問題が発生しました。
私の質問は、ページが読み込まれて関数がトリガーされた後、なぜwindow.speechSynthesis.getVoices()
空の配列を返すのですか? onready
リンクをクリックするとわかるように、同じ関数がトリガーによって Chrome の利用可能な音声の配列を返しますonclick
か?
window.speechSynthesis
ページの読み込み後にChrome が読み込まれるようです。
問題はready
イベントではありません。var voice=...
関数から行を削除するready
と、最初のクリックでコンソールに空のリストが表示されます。しかし、2回目のクリックはうまくいきます。
window.speechSynthesis
最初の呼び出しの後、読み込みに時間がかかるようです。2 回呼び出す必要があります。ただし、 を 2 番目に呼び出す前に、待機してロードする必要もありますwindow.speechSynthesis
。たとえば、次のコードを初めて実行すると、コンソールに 2 つの空の配列が表示されます。
node.js - ノード、js の助けを借りて単純な Google Web 音声 API を実装する方法
私は段階的なプロセスを探しています。または、実装に役立つ優れたドキュメント。これまでのところ、github でこのレポを見つけました。しかし、これがどのように役立つか理解できませんでしたhttps://www.npmjs.org/package/google-speech-api
javascript - ユーザーのマイク使用許可ステータスをテストする
のインスタンスを作成した後、ユーザーがマイクへのアクセスを許可したかどうかを知る最善の方法は何webkitSpeechRecognition
ですか?
私の頭に浮かんだ最初のアイデアは、webkitSpeechRecognition:onstart
メソッドを使用してローカルステータス参照を更新することでした:
しかし、グローバルな読み取り専用値がブラウザーによって既に設定されている可能性があるため、これは冗長に思えます。
何かご意見は?
html - HTML5 の Web Speech API でサポートされている言語は何ですか?
Web Speech API でサポートされている言語を確認し、貢献して他の言語を追加したいと考えています。