問題タブ [webkitspeechrecognition]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
javascript - クロムの音声認識が午後 8 時から午前 3 時の間に機能しない
最初のいくつかのコンテキスト:
ARM で実行されているオレンジ色のパイ (一種のラズベリー パイ 3) があるため、実際のクロムをインストールできません。
クロムで実行されている Node.js アプリがあります。音声認識はクライアント側です。音声認識は、午後 8 時から午前 3 時の間を除いてうまく機能します。アプリは毎日終日実行されます。
いくつかのコード:
エラー :
ネットワーク エラーが発生しました。しかし、これはネットワークが正常に動作していることを意味しません。
質問: なぜですか? 本当に使いたい場合を除いて、なぜそれがうまく機能するのですか?ブラウザを閉じて再度オンにしても、役に立たないようです。午前 3 時頃に再び機能します..... この問題は私を夢中にさせています。
electron - webkitSpeechRecognition がエラー「ネットワーク」をスローする
スタンドアロンのクロムブラウザーで実行するとうまく機能する音声認識 (webkitSpeechRecognition を使用) アプリケーションがあります。
アプリケーションを electron パッケージに変換したところ、マイクのリッスンが停止し、「ネットワーク」というメッセージでエラーが返されました。ドキュメントには、「認識を完了するために必要なネットワーク通信に失敗しました。」と記載されています。ただし、クロムでは問題なく直接動作します。
また、テキスト読み上げに「SpeechSynthesisUtterance」を使用しましたが、これは電子上で問題なく機能します。
数週間前、概念実証の生成中にソリューションがうまく機能していましたが、同様に機能しなくなりました。
何が間違っているのか誰にも分かりますか?
javascript - Android、WebView、SpeechRecognition-API
私はかなり厄介な問題に直面しています: 顧客プロジェクトの場合、HTML5/JavaScript (顧客仕様) を利用して、ある種の「発話の終わり」を検出する必要があります。それで、私はいくつかの調査を行い、「まあ、SpeechRecognition API を試してみましょう」と考えました。それは「onpeechend」イベントです。これは私のマシンでは魅力的に機能しますが、アプリケーション自体では機能しません。私の調査中に、アプリ内で使用している WebView は、実際にはシステムの既定のブラウザーではないことがわかりました。
デフォルトのブラウザの userAgent が私を返します
Mozilla/5.0 (Linux; Android 6.0.1; SM-G900F Build/MMB29M; wv) AppleWebKit/537.36 (KHTML, like Gecko) Version/4.0 Chrome/54.0.2840.68 Mobile Safari/537.36
ただし、WebView-userAgent は戻ります
Mozilla/5.0 (Linux; Android 6.0.1; SAMSUNG SM-G900F Build/MMB29M) AppleWebKit/537.36 (KHTML, like Gecko) SamsungBrowser/4.0 Chrome/44.0.2403.133 Mobile Safari/537.36
気がかりな部分は、SpeechRecognition-API がデフォルトのブラウザーで使用できるが、WebView インスタンスでは使用できないことです。これを修正/回避する方法を知っている人はいますか?
または任意のアイデア、スピーチの終わりを検出する方法。残念ながら、SpeechRecognition-Intent の使用はオプションではありません。私はそのようにしたいのですが、前述のとおり、顧客は HTML5/JavaScript でこれを行うことを主張しています。
javascript - WebkitSpeechRecognition から生の音声をキャプチャする
音声を文字に変換するために使用される WebkitSpeechRecognition サービスを試してみました ( https://developer.mozilla.org/en-US/docs/Web/API/Web_Speech_API )。現状ではまともなおもちゃですが、実際に役立つほど正確ではありません。ただし、一時停止を検出し、ユーザーが何を言ったかについて漠然とした考えを与えるために、少なくともいくつかの単語を正しく取得するのは得意です。
私が便利だと思うのは、生のオーディオもキャプチャできることです。そうすれば、書き起こしたテキストと一緒に表示して、ユーザーが正しく書き起こされなかった文を手動で再生できるようにすることができます。
残念ながら、API のどこにも公開されていません。これを達成する方法はありますか?そうでない場合は、キャプチャなど、これに使用できるハックや CPU ドレインが多すぎない代替ソリューションはありNavigator.getUseMedia()
ますか? もしそうなら、一時停止の検出と自分自身を分割するためのロジックを書き直す必要がありますか?
google-chrome - Web Speech API は、入力がないまま時間が経過するとリッスンを停止します
Web Speech API を使用していますが、音声入力がない状態で少し時間が経過すると (1 ~ 2 分)、完全に聞こえなくなります。解析されたテキストをコンソールに記録するようにしているので、これはわかっていますが、1、2 分話さないと、これを停止します。
これを修正する方法はありますか?