問題タブ [webspeech-api]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
google-chrome - speechSynthesis.speakがクロムで機能しない
Windows 10 で Chrome バージョン 55.0.2883.87 m (64 ビット) を使用しています。
次の単純な html ファイルは問題を再現しており、より複雑なアプリから抽出されています。ページの読み込み時に 3 つの単語を話すことになっています。MS Edge と Firefox では動作しますが、chrome では動作しません。このコードは、数週間前にChromeで問題なく機能していました。
api - Web Speech API の制限はありますか?
私はW3C Browser Web Speech Apiを使用しています。どこでも検索しますが、答えが見つかりません。利用制限はありますか?
デモストレーション: https://www.google.com/intl/en/chrome/demos/speech.html
javascript - Web Speech API の遅延。私のコードは悪いですか、それともこれは予想されることですか?
視覚障害者向けのホーム オートメーション プロジェクト用にブラウザ内音声合成を実装しようとしています。私のテスト ページでは、speak()
メソッドを呼び出してから実際にそれを聞くまでに約 1 秒のタイムラグがあることに気付きました。
これが正常な動作なのか、それとも私が何か間違ったことをしているのか疑問に思っています。誰かがそれをスピードアップする方法についてアドバイスを提供できる場合(0.5秒程度でも)、本当に感謝しています:)
[編集 1]
では、MS Edge (Chrome のみを使用していた) でテスト ページを試してみたところ、ラグがなくなりました。「音声」を「ネイティブ」に設定して、Chrome でWeb Speech Synthesis Demoも試しましたが、ラグもありませんでした。これらのテストはどちらも、英国英語の音声でテキストをレンダリングしました。
Chrome では、私のテスト ページはオーストラリア英語の音声 (私は AU にいます) でテキストをレンダリングし、再生するまでに遅延があります。
私の直感によると、Chrome ブラウザーは、ローカル システムの音声を使用する代わりに、リモートの場所から音声を読み込み、この特定のページに対してのみ読み込んでいます (つまり、codepen.io のデモは同じブラウザーで正常に動作します)。しかし、私が知らないのはその理由です。
音声が呼び出されるたびに読み込まれるのではなく、一度だけ読み込まれるのであれば、これはそれほど問題にはなりません (それが起こっていると思います)。
[/編集 1]
これが私のコードです: