問題タブ [avspeechsynthesizer]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
iphone - 米国の iPhone には、AVSpeechSynthesizer の英国の音声がありますか? (テストするサンプルコード)
これをテストする米国の開発者の友人はいませんが、役立つコミュニティ全体を知っていることに気付きました. :)
だから私の質問は - 米国の iPhone には AVSpeechSynthesizer の英国の声がありますか、それともシミュレーターのように単調なドローンを再生しますか?
これをテストするコードは次のとおりです。
一方で、すべての言語をサポートして出荷されることは理にかなっています。一方、私はテキスト読み上げの音声がどれだけ大きなものになるかを知っているので、母国語のみを含めることも理にかなっており、米国では英国の音声が含まれていない可能性があります.
私自身のテストでは、言語を@"en-au"
(オーストラリアの場合) などに変更すると、私のデバイスでも適切に聞こえます。
ios - iOS 6 - AVSpeechSynthesizer の問題
を確認したのに、 iOS6で実行するとエラーが発生するのはなぜAVSpeechSynthesizer
ですか? AVSpeechSynthesizer は iOS7 でしか利用できないことを認識しています
ios - 電話がロックされていると AVSpeechSynthesizer が機能しない
電話がロックされているときに使用しようとしてAVSpeechSynthesizer
いますが、画面をロックすると音声が停止します。実際のデバイスではなく、シミュレーターを使用しています。このサイトでこれに似た他の質問をいくつか見たので、それらの推奨事項に従いましたが、それでも機能しません。
アプリ デリゲートで、オーディオ セッション カテゴリを に設定しますAVAudioSessionCategoryPlayback
。
そして、Project Settings->Capabilities->Background Modes で 'Audio and Airplay' モードをチェックしました。
これを機能させる方法を誰か教えてもらえますか?
memory-leaks - テキストの読み取りに AVSpeechSynthesizer が使用されるたびに、計測器がメモリ リークを報告する
AVSpeechSynthesizer を使用してテキストを読み上げるたびに、Instruments は AXSpeechImplementation ライブラリでメモリ リークを報告します。呼び出しを行うために使用しているコードは次のとおりです。
Instrumentsのスクリーンショットへのリンクは 次のとおりですhttp://imageshack.com/a/img690/7993/b9w5.png
ios - AVSpeechSynthesizer の再生を途中で停止するにはどうすればよいですか?
アプリでテキスト読み上げに AVSpeechSynthesizer を使用しています。ユーザーが停止ボタンを押した場合など、途中で再生を停止することはできますか?
ios - AVSpeechSynthesizer 特殊文字
AVSpeechSynthesizer を使用して文字列を読み取っていますが、文字列に絵文字の笑顔などの特殊文字が含まれているとエラーが発生します。
日本語、中国語のサポートを残して、特殊文字の文字列を消去するにはどうすればよいですか?
ios - phonegapのios AVSpeechSynthesizerプラグインpauseSpeakingAtBoundaryが機能しない
ユーザーが使用してテキストを聞くことができる phonegap のプラグインを作成しましたが、動作させるAVSpeechSynthesizer
ことができないようですpauseSpeakingAtBoundary
。
テスト目的で、現在、合成されるテキストの文字列または「PAUSE」と書かれた文字列を受け取り、 i f (![echo isEqual:@'PAUSE']
) をチェックして、発話を一時停止するかどうかを判断します。しゃべりが始まり、「PAUSE」が受信されたときにログに記録されますが、シンセサイザーはしゃべり続けます。
私はこれにまったく慣れていないので、間違いを犯したのか、に問題があるのか わかりませんpauseSpeakingAtBoudary
。私のコードは以下です。ありがとう。
繰り返しますが、私が作業できないのはpauseSpeakingAtBoundaryです。音声合成は、phonegaps のドキュメントに従って、javascript exec から動作しています。
ios - AVAudioSession と AVSpeechUtterance の混合
バックグラウンドで iPod に音楽を再生させたいという問題があり、私のアプリケーションでAVSpeechUtterance
は、iPod の音量を下げて、一連のテキストを再生してから、iPod の再生を再開させたいと考えています。私はいくつかのことを試しましたが、AVAudioSession を使用したことがなく、AVSpeechUtterance
うまく連携できませんでした。iPod を停止し、少し一時停止してから、再生を再開することができます。文字列が に渡されていることがわかりますがAVSpeechUtterance
、スピーカーで再生されることは優先されません。これが私のコードです:
ビューが読み込まれました:
ここに私の音声機能があります:
AVSpeechSynthesizer
スピーチが終了した後に呼び出されるデリゲート メソッド
AVAudioSession
ここでApple ドキュメントを確認したところ、すべてが正しく実装されているようです。私がどこで間違ったのか誰にもわかりませんか?
speaker - AVSpeechSynthesizer スピーカー オン
ヘッドフォンを接続すると、テキストがヘッドフォンから読み上げられるのが聞こえます。ただし、ヘッドフォンを外すと、まったく再生されません。このスピーチのスピーカーをオンにするにはどうすればよいですか? これは私のコードです:
ios - AVSpeechSynthesizer が動作しなくなる
AVSpeechSynthesizer で発話が終了しても、次の発話が発話されないという比較的まれな問題があります。ホーム画面に戻ってからアプリに戻ると、アプリ自体が再び話し始めます。
アプリを 50 ~ 100 回実行するごとに 1 回しか発生しないため、より徹底的にテストするために実際に再現することはできません。
デリゲートは呼び出されますdidFinishSpeechUtterance
が、次は呼び出されdidStartSpeechUtterance
ません。
AVSpeechSynthesizer の新しいインスタンスを割り当てて、問題が解決するかどうかを確認しようとしましたが、解決しませんでした。
他の誰かがこの問題を経験しましたか? 何か案は?