Android アプリに音声認識を追加するためのオンライン チュートリアルが多数あります。それらは混乱を招くことが多く、コーディングの発行者は質問に応じることができません。アプリに音声認識を追加する方法の基本的な概要が必要です (リンクではなく回答として)。
2 に答える
グループの Android アプリに音声認識を追加したい場合、それは非常に簡単です。
このチュートリアルでは、コードに貼り付けるときにインポートを追加する必要があります。
- xml ファイルを作成するか、既存のファイルを使用して、ボタンとリストビューを追加してください。
- Java クラスでは、アクティビティを拡張して実装する必要があります。実装さ
OnClickListener
れていないメソッドがあるというエラーが表示されます。その上にカーソルを置き、未実装のメソッドを追加します。これについては後で追加します。 次に、Java でボタンとリストビューを設定します。
public ListView mList; public Button speakButton;
また、次を追加します。
public static final int VOICE_RECOGNITION_REQUEST_CODE = 1234;
次に、OnCreate メソッドを作成し、ボタンとリスナーを設定します。
speakButton = (Button) findViewById(R.id.btn_speak); speakButton.setOnClickListener(this);
このメソッドも追加します(次に設定します)
voiceinputbuttons();
表示している xml に ContentView を設定することを忘れないでください。
oncreate の外で、次のような新しいメソッドを作成します。
public void voiceinputbuttons() { speakButton = (Button) findViewById(R.id.btn_speak); mList = (ListView) findViewById(R.id.list); }
次のコードを使用して、音声認識アクティビティを設定する必要があります。
public void startVoiceRecognitionActivity() { Intent intent = new Intent(RecognizerIntent.ACTION_RECOGNIZE_SPEECH); intent.putExtra(RecognizerIntent.EXTRA_LANGUAGE_MODEL, RecognizerIntent.LANGUAGE_MODEL_FREE_FORM); intent.putExtra(RecognizerIntent.EXTRA_PROMPT, "Speech recognition demo"); startActivityForResult(intent, VOICE_RECOGNITION_REQUEST_CODE); }
次に、ステップ 2 の onclick メソッド内に、ステップ 6 のアクティビティを追加します。
startVoiceRecognitionActivity();
次に、別の方法を設定する必要があります。次のコードをコピーして貼り付けます。
@Override public void onActivityResult(int requestCode, int resultCode, Intent data) { if (requestCode == VOICE_RECOGNITION_REQUEST_CODE && resultCode == RESULT_OK) { ArrayList<String> matches = data.getStringArrayListExtra(RecognizerIntent.EXTRA_RESULTS); mList.setAdapter(new ArrayAdapter<String>(this, android.R.layout.simple_list_item_1, matches));
一致は音声入力の結果です。ユーザーが発言した可能性のある内容のリストです。使用したいキーワードに if ステートメントを使用すると、キーワードが一致する場合に任意のアクティビティを使用できます 同じアクティビティを使用する複数のキーワードを設定できるため、複数の単語でユーザーはアクティビティを使用できます (そのようにします)ユーザーはリストから単語を覚える必要はありません) 音声入力情報からアクティビティを使用するには、次の形式を使用するだけです。
if (matches.contains("information")) { informationMenu(); }
注: Eclipse で ctrl+shift+F を押すと、いつでもコードをフォーマットできます。
次に、ステップ 8 のコードで使用されるメソッドをセットアップします。このコードは、ユーザーを新しいメニューに誘導するインテントを作成します。これには、別の xml および Java クラスが必要になります。また、マニフェストにアクティビティを追加することを忘れないでください。
public void informationMenu() { startActivity(new Intent("android.intent.action.INFOSCREEN")); }
最後に、マイクが動作しているかどうかをユーザーに知らせるコードを設定する必要があります。このコードを OnCreate メソッドの最後に貼り付けます。
// Check to see if a recognition activity is present // if running on AVD virtual device it will give this message. The mic // required only works on an actual android device PackageManager pm = getPackageManager(); List activities = pm.queryIntentActivities(new Intent( RecognizerIntent.ACTION_RECOGNIZE_SPEECH), 0); if (activities.size() != 0) { voiceButton.setOnClickListener(this); } else { voiceButton.setEnabled(false); voiceButton.setText("Recognizer not present"); }
最後の注意: 仮想エミュレーターはコンピューターのマイクにアクセスできないため、音声認識は仮想エミュレーターでは機能しません。音声認識は、インターネット接続でのみ機能します。
これは約です。Java で最終的なコードがどのように見えるか。
package com.example.com.tutorialthread;
import java.util.ArrayList;
import android.os.Bundle;
import android.app.Activity;
import android.content.Intent;
import android.view.Menu;
import android.view.MenuItem;
import android.view.View;
import android.view.View.OnClickListener;
import android.widget.ArrayAdapter;
import android.widget.Button;
import android.widget.ListView;
import android.speech.RecognizerIntent;
import android.support.v4.app.NavUtils;
public class main extends Activity implements OnClickListener {
public ListView mList;
public Button speakButton;
public static final int VOICE_RECOGNITION_REQUEST_CODE = 1234;
@Override
public void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
setContentView(R.layout.main);
speakButton = (Button) findViewById(R.id.btn_speak);
speakButton.setOnClickListener(this);
voiceinputbuttons();
}
public void informationMenu() {
startActivity(new Intent("android.intent.action.INFOSCREEN"));
}
public void voiceinputbuttons() {
speakButton = (Button) findViewById(R.id.btn_speak);
mList = (ListView) findViewById(R.id.list);
}
public void startVoiceRecognitionActivity() {
Intent intent = new Intent(RecognizerIntent.ACTION_RECOGNIZE_SPEECH);
intent.putExtra(RecognizerIntent.EXTRA_LANGUAGE_MODEL,
RecognizerIntent.LANGUAGE_MODEL_FREE_FORM);
intent.putExtra(RecognizerIntent.EXTRA_PROMPT,
"Speech recognition demo");
startActivityForResult(intent, VOICE_RECOGNITION_REQUEST_CODE);
}
public void onClick(View v) {
// TODO Auto-generated method stub
startVoiceRecognitionActivity();
}
@Override
public void onActivityResult(int requestCode, int resultCode, Intent data) {
super.onActivityResult(requestCode, resultCode, data);
if (requestCode == VOICE_RECOGNITION_REQUEST_CODE && resultCode == RESULT_OK) {
// Fill the list view with the strings the recognizer thought it
// could have heard
ArrayList matches = data.getStringArrayListExtra(RecognizerIntent.EXTRA_RESULTS);
mList.setAdapter(new ArrayAdapter(this, android.R.layout.simple_list_item_1, matches));
// matches is the result of voice input. It is a list of what the
// user possibly said.
// Using an if statement for the keyword you want to use allows the
// use of any activity if keywords match
// it is possible to set up multiple keywords to use the same
// activity so more than one word will allow the user
// to use the activity (makes it so the user doesn't have to
// memorize words from a list)
// to use an activity from the voice input information simply use
// the following format;
// if (matches.contains("keyword here") { startActivity(new
// Intent("name.of.manifest.ACTIVITY")
if (matches.contains("information")) {
informationMenu();
}
}
}