問題タブ [voice-recognition]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - Google の音声認識サーバーに送信された音声のキャプチャ
Google サーバーで音声を認識するために、この質問に対するStephanの回答で提案されているように、SpeechRecognizer クラスを RecognitionListener と組み合わせて使用します。さらに、次のように RecognitionListener から onBufferReceived() コールバックを使用して、認識されているオーディオ信号をキャプチャしようとします。
SpeechRecognizer が Google サーバーへの接続に失敗した場合、音声のチャンクが上記のsig
配列にコピーされず、HTTP 接続タイムアウト例外がスローされた場合を除いて、これは正常に機能しているようです。SpeechRecognizer は最終的に Google サーバーに接続し、認識結果は完全な音声信号が受信されたことを示します。配列だけにsig
いくつかのオーディオ チャンクがありません。
誰も同じ問題を経験していますか? 解決のヒントはありますか?ありがとうございました!
c# - Windows 音声認識によるマイクの音量の最小カットオフ
Window の音声認識 API を使用していますが、非常に低いバックグラウンド ノイズを "if" という単語として繰り返し検出しています。入力の受け入れを開始するための最小ボリューム要件を設定する方法を見つけようとしていますが、そのメンバーはすべて読み取り専用に設定されています。
マイクの音量の最小カットオフを設定するにはどうすればよいですか?
編集:平均を取得し、必要な平均を下回っている場合はテキストを無視する方法を考え出しました
html - HTML5 音声入力と Google 翻訳のテキスト読み上げ、Chrome の問題
音声/テキストメモ Web アプリケーションを作成しています。ここ: http://gustavstromberg.se/sandbox/html5/localstorage/ソースを見てください (非常に短く、ほとんどが css です)
これは:
- 音声認識は、私の知る限りクロムでのみ機能します。
- ローカル ストレージ。メモをテキストとして保存します。
- Google 翻訳のテキスト読み上げ。
すべてが機能しますが、ブラウザーが異なります。音声入力はクロムでのみ完璧に機能します。テキスト読み上げはサファリで動作します。
メモを audio>source 要素に動的にロードするには、次を使用します。
(localStorage['memory'] には、保存したテキスト メモが含まれています)
最近保存したメモをGoogleのテキスト読み上げ機能で再生するには、次を使用します。
(spokenmemory は私の audio-tag の id 属性です)
これは chrome では再生できませんが、翻訳リンク (例: http://translate.google.com/translate_tts?tl=en&q=Japan、私のテキストメモは「Japan」) にアクセスすると、別のブラウザタブを開き、自分のサイトに戻ってページをリロードすると (同じテキストメモ「Japan」が保存されます)、再生が機能します。なんて奇妙で、うっとうしいことでしょう。
この奇妙な動作について誰か考えがありますか?
android - Androidの音声認識-使用する言語を取得する
Android音声認識インテントを使用していますが、ユーザーが認識を行うために設定した言語を知りたいのですが。RecognizerIntentのドキュメントは、インテントデータからこれを取得できることを示していますが、私はnullを取得し続けます。
これらの値は、インテントを呼び出すときに使用できますか?このデータを取得する別の方法はありますか?
これが私がインテントと呼ぶ方法です:
そして、私は次のような結果を得る:
android - Android 連続音声認識?
重複の可能性:
Android での連続音声認識
ユーザーにボタンをクリックしてフレーズを認識させる現在の音声認識方法を理解しています。しかし、連続音声認識が可能かどうか知っている人はいますか? たとえば、音声コマンドを使用して (ボタンをクリックせずに) 電話を制御して、アプリを起動したり、視覚障害者や車を運転している人にインタラクティブな情報を提供したりできます。
xml - grxmlファイルで認識されたアイテムを切り替える
OMVリテラルを認識するための文法(grxml形式)を作成しました(hu-hu言語設定を使用)
これは問題のある部分です:
ニュアンスはそれを認識し、「oemfau」と印刷しますが、そのニュアンスに、単語はoemfauではなく、OMVであると言ってもらいたいと思います。どうすれば単語を切り替えることができますか?
android - Android Voice Recognition All は配列の 1 つのインデックスになります
Android 音声認識アクティビティの結果を解析しようとしていますが、すべての単語 (スペースで区切られている) が配列の最初のインデックスにあることがわかりました。
すべての単語を配列の各インデックスに入れることを期待していました。
android - 関連する音声認識 Google API android
Voice Recognition API は、音声を聞いた後に提案のリストを生成します。知りたかったのですが、最も可能性の高い提案が常に一番上に来るのか、それとも単にランダムなのか..精度を判断するための計算を行うためにこれが必要です。
android - 音声認識コマンド Android
そのため、ユーザーが音声コマンドを実行したいが解決策が見つからなかったときに、Google の音声認識 UI ダイアログを削除することに関する問題の解決策を広く探しました。ユーザーにメニューを表示するアプリを実装しようとしています。ユーザーはオプションをクリックするか、新しいページを開くオプションを大声で言うことができます。これまでのところ、Google の RecognizerIntent を使用しない限りこれを実装できませんでしたが、ダイアログ ボックスをポップアップさせたくありません。誰にもアイデアはありますか?または、誰かがこの問題を解決したか、回避策を見つけましたか? ありがとう
編集: 妥協案として、メニューを表示しながらダイアログを画面の下部に移動する方法があるでしょうか?