問題タブ [dictation]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - デフォルトのUI ANDROIDを使用せずに音声をテキストに変換する
重複の可能性:
独自のサウンド ファイルからのテキストへの音声
ファイルを wav 形式で録音し、それを mp3 形式に変換するアプリケーションがあります。
そのため、このファイルを解釈してテキスト ファイルに書き込む必要があります。
話し声を使おうと思っているのですが、UIのデフォルトなしで自動停止を削除して使う方法がわかりません。
基本的に、ユーザーがアプリに口述したことを記録して書き込む必要があり、アプリケーションはファイルを編集できるようにします。レコードをテキスト ファイルに書き込む部分を手伝う必要があります。何か考えはありますか?
御時間ありがとうございます
iphone - iPad mini で音声ディクテーションを使用すると 100% iPhone アプリがクラッシュする
次の手順では、常にアプリがクラッシュします。
- アプリストアから「iPhoneアプリ」を「iPad Mini」にインストールします(ユニバーサルアプリを除く)
- アプリで任意のテキスト フィールドを見つけて使用を開始します (その後、キーボードがポップアップします)。
- キーボードの「音声ディクテーション」ボタンをタッチします
これは iPad mini の iOS のバグだと思います。誰かがこれに苦しんでいますか?
前もって感謝します。
objective-c - iOS ディクテーション辞書に単語を追加することはできますか?
私は iOS アプリを構築していますが、既存の辞書に加えて、口述機能 (UITextView にテキストを入力するときの口述など) 用にいくつかのカスタム単語を有効にできれば非常に便利です。
言い換えれば、Apple のディクテーション辞書に含まれていないいくつかの単語を、テキストをディクテーションするときに使用できるようにしたいのです。もともとこれは不可能だと思っていましたが、SO コミュニティで確認できることを望んでいました。
ios - ディクテーションの使用 - iOS 6 - DidStart?
ディクテーションの開始にどのように対応しますか?
ディクテーションに応答する既知の方法:
dictationRecordingDidEnd -口述されたフレーズの認識の完了に応答します。
dictationRecognitionFailed -失敗したディクテーション認識に応答します。
リファレンス: UITextInput プロトコル リファレンス
iOS 5.1 以降、サポートされているデバイスでユーザーがディクテーション入力を選択すると、システムは認識されたフレーズを現在のテキスト ビューに自動的に挿入します。「ディクテーションの使用」で説明されているように、UITextInput プロトコルのメソッドを使用すると、アプリはディクテーションの完了に応答できます。UIDictationPhrase クラスのオブジェクトを使用して、ユーザーが口述した語句を表す文字列を取得できます。あいまいなディクテーション結果の場合、ディクテーション フレーズ オブジェクトは代替文字列を含む配列を提供します。
ios - シミュレーターのディクテーション入力
iOSシミュレーターでUITextFieldのディクテーション入力を行うことは可能ですか?もしそうなら、私は何をする必要がありますか?私が開発に利用できるデバイスはiPhone4で、ディクテーション入力をサポートしているとは思いません。
speech-recognition - アプリケーションのようなディクテーションに htk を使用できますか?
アプリケーションのようなディクテーション用の音声認識システムを構築したいと考えています。私は htk の本や他のチュートリアルを読みましたが、すべてのチュートリアルはコマンド アンド コントロールのようなアプリケーションに関するものです。gram
これらのアプリケーションでは、一連のコマンドと単語が制限されており、タスク文法 (ファイル)を使用して手動で指定されます。
私のアプリケーションでは、2 人の会話を含む巨大なオーディオ ファイルを処理するため、そのような文法を指定することはできません。
htk を使用してそのようなアプリケーションを構築できるかどうかを知りたいです。
ありがとう...
睡眠不足の夜を何度も過ごした後の更新
Sphinx を使用して 86% の精度を得ました。言語モデルに問題がありました (何が問題なのか正確にはわかりませんが、それを見つけようとしています) ためlmtool
、Web ベースの言語モデル生成サービスである Sphinx を使用して新しい言語モデルを作成しました。このリンクを使用して取得できます
また、音響モデルをHUBからWSJに変更しました。
ios - ディクテーションを使用した目的の C AVAudioRecorder
AVAudioRecorder を iOS ディクテーションで動作させようとしています。私がこれまでに行ったことは、最初に AVAudioRecorder を起動し、次にユーザーがキーボードのマイク ボタンを押してディクテーションを開始することでした。ディクテーションが AVAudioRecorder を中断し、録音が停止することがわかりました。AVAudioSessionInterruptionNotification を使用して、中断した時点で録音を再開しようとしました。それは機能しましたが、ディクテーションは何も「聞こえません」。
iOS でディクテーションを使用しているときにユーザーの声を録音する方法はありますか? (Android とは異なり、Objective C はサーバーに送信される音声データを公開しないことも認識しています。)
protocols - メディア リソース コントロール プロトコル (MRCP) とディクテーション (文法を使用しない音声認識)
メディア リソース コントロール プロトコル ( MRCP ) は、音声認識については通知しますが、ディクテーション(文法を送信しない音声認識) については何も通知しません。少なくとも、何も見つかりません。
なぜそうしないのですか?それとも、MRCP を間違って理解していますか? もしそうなら、MRCP はDictationについて何と言っていますか?
windows-phone-8 - SRGS 文法と音声認識を使用して、ベトナム語音声でソフトウェアを開発できますか?
私は、ベトナム人が自分の声を修正するのをサポートする Windows Phone 8 ソフトウェアを開発しています。私は、SRGS 文法を使用して、アプリとの複雑な音声対話を設計するのに役立つ研究を行いました。では、SRGS 文法と音声認識を使用して、ベトナム語音声でソフトウェアを開発できますか?