この問題を解決する方法がわかりません。スレッドを正しく設定していないのか、それとも問題を適切に解決できるのかさえわかりません。
これは、特定の文字列を特定のタイミングで TTS (ネイティブの Android TTS を使用) として読み取る Android アプリです。この TTS の読み取り中に、ユーザーは「停止」や「一時停止」などの指示でバージインできる必要があります。この認識は、iSpeech API を使用して行われます。
現在の解決策は、適切な文字列を出力するスレッドとして TTS を実行することです。ユーザーがボタンを押して (Intent を使用して) 音声認識を開始すると、アプリは音声認識を実行して完全に処理しますが、その後 TTS は何も出力しません。Logcat には次のエラーが表示されます。
11-28 02:18:57.072: W/TextToSpeech(16383): 発話に失敗しました: TTS エンジンにバインドされていません
音声認識を TTS を一時停止する独自のスレッドにすることを考えましたが、問題は、TTS を制御するタイマーが本来あるべきものと非同期になることです。
アドバイスや助けをいただければ幸いです。
スレッドと意図に関する関連コードは次のとおりです。
スレッド
public void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
//Prevent device from sleeping mid build.
getWindow().addFlags(WindowManager.LayoutParams.FLAG_KEEP_SCREEN_ON);
setContentView(R.layout.activity_build_order);
mPlayer = MediaPlayer.create(BuildOrderActivity.this, R.raw.bing);
params.put(TextToSpeech.Engine.KEY_PARAM_UTTERANCE_ID,"stringId");
tts = new TextToSpeech(BuildOrderActivity.this, new TextToSpeech.OnInitListener() {
@SuppressWarnings("deprecation")
public void onInit(int status) {
if(status != TextToSpeech.ERROR)
{
tts.setLanguage(Locale.US);
tts.setOnUtteranceCompletedListener(new OnUtteranceCompletedListener() {
public void onUtteranceCompleted(String utteranceId) {
mPlayer.start();
}
});
}
}
});
buttonStart = (Button) findViewById(R.id.buttonStartBuild);
buttonStart.setOnClickListener(new View.OnClickListener() {
public void onClick(View v) {
startBuild = new StartBuildRunnable();
Thread t = new Thread(startBuild);
t.start();
}
});
...//code continues oncreate setup for the view}
public class StartBuildRunnable implements Runnable {
public void run() {
double delay;
buildActions = parseBuildXMLAction();
buildTimes = parseBuildXMLTime();
say("Build has started");
delayForNextAction((getSeconds(buildTimes.get(0)) * 1000));
say(buildActions.get(0));
for (int i = 1; i < buildActions.size(); i++)
{
delay = calcDelayUntilNextAction(buildTimes.get(i - 1), buildTimes.get(i));
delayForNextAction((long) (delay * 1000));
say(buildActions.get(i));
//listViewBuildItems.setSelection(i);
}
say("Build has completed");
}
}
意図
/**
* Fire an intent to start the speech recognition activity.
* @throws InvalidApiKeyException
*/
private void startRecognition() {
setupFreeFormDictation();
try {
recognizer.startRecord(new SpeechRecognizerEvent() {
@Override
public void onRecordingComplete() {
updateInfoMessage("Recording completed.");
}
@Override
public void onRecognitionComplete(SpeechResult result) {
Log.v(TAG, "Recognition complete");
//TODO: Once something is recognized, tie it to an action and continue recognizing.
// currently recognizes something in the grammar and then stops listening until
// the next button press.
if (result != null) {
Log.d(TAG, "Text Result:" + result.getText());
Log.d(TAG, "Text Conf:" + result.getConfidence());
updateInfoMessage("Result: " + result.getText() + "\n\nconfidence: " + result.getConfidence());
} else
Log.d(TAG, "Result is null...");
}
@Override
public void onRecordingCancelled() {
updateInfoMessage("Recording cancelled.");
}
@Override
public void onError(Exception exception) {
updateInfoMessage("ERROR: " + exception.getMessage());
exception.printStackTrace();
}
});
} catch (BusyException e) {
e.printStackTrace();
} catch (NoNetworkException e) {
e.printStackTrace();
}
}