AVSpeechSynthesizer
クラスを介してiOSのテキスト読み上げシンセサイザーをプログラムで使用できることを認識しています。
ただし、iOS との非視覚的な対話は、音声と音声以外の音に基づいています。たとえば、アプリが選択されるたびに、VoiceOver がアプリの名前を発声すると共に、短い「カチカチ」音が聞こえます。
スピーチと一緒に、これらの音もプログラムで再現できるようにする Objective-C API があるかどうか疑問に思っていました。
AVSpeechSynthesizer
クラスを介してiOSのテキスト読み上げシンセサイザーをプログラムで使用できることを認識しています。
ただし、iOS との非視覚的な対話は、音声と音声以外の音に基づいています。たとえば、アプリが選択されるたびに、VoiceOver がアプリの名前を発声すると共に、短い「カチカチ」音が聞こえます。
スピーチと一緒に、これらの音もプログラムで再現できるようにする Objective-C API があるかどうか疑問に思っていました。