問題タブ [avspeechsynthesizer]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
2 に答える
597 参照

ios - NSNumberFormatter: AND 助詞を使用した数字の綴り (イギリスの綴り)

次のコード:

「百二」(イギリスのスペル)

しかし、代わりに数字の 112 を音訳すると、次のようになります。

現在、wordNumber には「112」が含まれています (and 助詞なし)。

そう:

および助詞を使用して数字を音訳するにはどうすればよいですか。つまり、イギリスのスペルですか?

0 投票する
1 に答える
619 参照

ios - AVSpeechSynthesizer で現在位置を取得

が読む大きなテキスト ブロックがありますAVSpeechSynthesizerAVSpeechSynthesizerオーディオ再生位置を保存することで、ユーザーがアプリケーションを終了した後でも、オーディオ再生の現在位置を取得し、後で同じ位置から再生することは可能ですか?

0 投票する
1 に答える
672 参照

ios - UILocalNotification サウンドとしての AVSpeechUtterance

こんにちは、これを読んでくれてありがとう!

フォアグラウンドで、私のアプリはAVSpeechUtterance時間指定されたイベントのために iOS7 を再生します。バックグラウンドで、.wav ファイル名を のsoundNameプロパティに渡しますUILocalNotification。これはすべて機能します。

AVSpeechUtteranceの音として使う方法はありUILocalnotificationますか?バックグラウンドとフォアグラウンドで同じ合成を希望します。

どうもありがとう!

0 投票する
2 に答える
13890 参照

ios - iOS 7 AVSpeechUtterance テキスト読み上げの言語コードの違いを取得するには?

iOS 7 の新しい音声合成 API を使用したいのですが、私のアプリケーションはフランス語と英語、ドイツ語、日本語などにローカライズされています。テキストを読むための言語コードを設定したいのですが、言語コードを取得するにはどうすればよいですか?

0 投票する
2 に答える
3568 参照

objective-c - AVSpeechSynthesizer はシミュレーターでは動作しますが、デバイスでは動作しません

AVSpeechSynthesis を学習しようとしています。コードは iOS シミュレーター (iPad と iOS の両方) で正常に動作しますが、テキスト読み上げ機能は私の iPad ではまったく動作しません。これが私のコードです。

更新: AVSpeechSyntheSizer は動作してい ますが、音が出ないため、UI に AVSpeechUtterance と同じテキストを持つ UILabel があります。AVSpeechSynthesizerDelegate を実装して、startSpeaking: を押すと、テキスト ラベルが現在の単語を赤に変えるようにしました。AVSpeechSynthesizer がデリゲート呼び出しを行っているため、動作しているに違いないことはわかっていますが、なぜそれが聞こえないのかわかりません。音量は上がっており、他のアプリはオーディオを再生していません。

0 投票する
5 に答える
6790 参照

ios - AVSpeechSynthesizer と ios8

こんにちは、iOS 8 で AvSpeechSynthesizer を試した人はいますか? Xcode 6でクイックアプリを実行しましたが、音声が出ません。Xcode 5でも同じことを実行しましたが、問題なく動作しました。

http://nshipster.com/avspeechsynthesizer/のサンプル コード

Xcode6 のバグ?

==編集=== iOS 8 simのバグ/問題のように見えます.Xcode6のiOS7.1 Simは正常に動作します..

0 投票する
1 に答える
1261 参照

ios - AVSpeechSynthesizer - 進行状況を取得するには?

アプリでこの UI を使用して AVSpeechSynthesizer を実装しています。

ここに画像の説明を入力

AVSpeechSynthesizer の発話から進行状況を取得するにはどうすればよいですか? 現在の進行状況を取得するデリゲート メソッドや API がないように見えますが、進行状況を取得するための回避策はありますか?

0 投票する
1 に答える
75 参照

ios - iOS 7 TTS で話されている内容を追跡する

AVSpeechUtterance のキューにある発話の数を追跡したいと考えています。そのため、話すように設定した順序で話される複数の文字列があります。どの発話番号が話されているかを追跡する方法はありますか?

たとえば、10 個の発話が待ち行列に入っているとします。どちらが話されているかを NSLog できるようにしたい。したがって、次を NSLog する必要がありますUtterance 6 Being Spoken。これを行う方法はありますか?

0 投票する
3 に答える
2905 参照

ios - AVSpeechUtterance サイレントモードでの発話音声

AVSpeechUtterance を使用して、指定されたテキストを読み上げています。私は以下のコードを使用しており、「iPhone リンガー モード」では問題なく動作しますが、iPhone を「サイレント モード」に変更すると、発話音声がミュートになります。そして「サイレントモード」だと発声音声が聞こえません。「サイレントモード」で発声音声を聞くにはどうすればよいですか。