問題タブ [avspeechsynthesizer]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - NSNumberFormatter: AND 助詞を使用した数字の綴り (イギリスの綴り)
次のコード:
「百十二」(イギリスのスペル)
しかし、代わりに数字の 112 を音訳すると、次のようになります。
現在、wordNumber には「112」が含まれています (and 助詞なし)。
そう:
および助詞を使用して数字を音訳するにはどうすればよいですか。つまり、イギリスのスペルですか?
ios - AVSpeechSynthesizer で現在位置を取得
が読む大きなテキスト ブロックがありますAVSpeechSynthesizer
。AVSpeechSynthesizer
オーディオ再生位置を保存することで、ユーザーがアプリケーションを終了した後でも、オーディオ再生の現在位置を取得し、後で同じ位置から再生することは可能ですか?
ios - UILocalNotification サウンドとしての AVSpeechUtterance
こんにちは、これを読んでくれてありがとう!
フォアグラウンドで、私のアプリはAVSpeechUtterance
時間指定されたイベントのために iOS7 を再生します。バックグラウンドで、.wav ファイル名を のsoundName
プロパティに渡しますUILocalNotification
。これはすべて機能します。
AVSpeechUtterance
の音として使う方法はありUILocalnotification
ますか?バックグラウンドとフォアグラウンドで同じ合成を希望します。
どうもありがとう!
ios - iOS 7 AVSpeechUtterance テキスト読み上げの言語コードの違いを取得するには?
iOS 7 の新しい音声合成 API を使用したいのですが、私のアプリケーションはフランス語と英語、ドイツ語、日本語などにローカライズされています。テキストを読むための言語コードを設定したいのですが、言語コードを取得するにはどうすればよいですか?
objective-c - AVSpeechSynthesizer はシミュレーターでは動作しますが、デバイスでは動作しません
AVSpeechSynthesis を学習しようとしています。コードは iOS シミュレーター (iPad と iOS の両方) で正常に動作しますが、テキスト読み上げ機能は私の iPad ではまったく動作しません。これが私のコードです。
更新: AVSpeechSyntheSizer は動作してい ますが、音が出ないため、UI に AVSpeechUtterance と同じテキストを持つ UILabel があります。AVSpeechSynthesizerDelegate を実装して、startSpeaking: を押すと、テキスト ラベルが現在の単語を赤に変えるようにしました。AVSpeechSynthesizer がデリゲート呼び出しを行っているため、動作しているに違いないことはわかっていますが、なぜそれが聞こえないのかわかりません。音量は上がっており、他のアプリはオーディオを再生していません。
ios - AVSpeechSynthesizer と ios8
こんにちは、iOS 8 で AvSpeechSynthesizer を試した人はいますか? Xcode 6でクイックアプリを実行しましたが、音声が出ません。Xcode 5でも同じことを実行しましたが、問題なく動作しました。
http://nshipster.com/avspeechsynthesizer/のサンプル コード
Xcode6 のバグ?
==編集=== iOS 8 simのバグ/問題のように見えます.Xcode6のiOS7.1 Simは正常に動作します..
ios - AVSpeechSynthesizer - 進行状況を取得するには?
アプリでこの UI を使用して AVSpeechSynthesizer を実装しています。
AVSpeechSynthesizer の発話から進行状況を取得するにはどうすればよいですか? 現在の進行状況を取得するデリゲート メソッドや API がないように見えますが、進行状況を取得するための回避策はありますか?
ios - iOS 7 TTS で話されている内容を追跡する
AVSpeechUtterance のキューにある発話の数を追跡したいと考えています。そのため、話すように設定した順序で話される複数の文字列があります。どの発話番号が話されているかを追跡する方法はありますか?
たとえば、10 個の発話が待ち行列に入っているとします。どちらが話されているかを NSLog できるようにしたい。したがって、次を NSLog する必要がありますUtterance 6 Being Spoken
。これを行う方法はありますか?
ios - AVSpeechUtterance サイレントモードでの発話音声
AVSpeechUtterance を使用して、指定されたテキストを読み上げています。私は以下のコードを使用しており、「iPhone リンガー モード」では問題なく動作しますが、iPhone を「サイレント モード」に変更すると、発話音声がミュートになります。そして「サイレントモード」だと発声音声が聞こえません。「サイレントモード」で発声音声を聞くにはどうすればよいですか。