Visual Studio2010で独自のC++プロジェクトをDLLとしてコンパイルすることにより、CMUのPocketSphinxをUnityと統合しています。これは、Unity Pro内のC#スクリプトから呼び出しています。まったく同じコードで別のプロジェクトをexeとして作成し、コンパイルしたため、dllが機能することはわかっています。また、スタンドアロンプログラムとして完全に機能します。マイク入力を取得してテキストをコンソールに出力するpocketsphinx_continuousプロジェクトの例を使用しています。このコードをUnity内から呼び出されるようにカスタマイズしました。これは、コンソールではなく文字列としてC#コードに出力されることになっています。私はこれがほぼ機能しているように感じますが、constchar*は文字列として戻っていないだけです。この宣言を使用すると、アクセス違反エラーが発生します。
プライベート静的外部文字列recognize_from_microphone();
だから、私はこれを使おうとしました:
private static extern IntPtr Recognition_from_microphone();
次に、このコード行を使用して、その関数の出力を出力しようとします。
print("あなたが言ったばかり"+ Marshal.PtrToStringAnsi(recognize_from_microphone()));
しかし、その場合、私は「あなたが言ったばかり」だけを返します。これを行うと、メモリアドレスを取り戻すことができます。print("あなたが言ったのは"+ Recognition_from_microphone()); だから、私は何かが返されていることを知っています。
これが私のC++コードです(これの多くは、pocketsphinxのサンプルコードとして元々Cで書かれていました):
char* MakeStringCopy (const char* str)
{
if (str == NULL) return NULL;
char* res = (char*)malloc(strlen(str) + 1);
strcpy(res, str);
return res;
}
extern __declspec(dllexport) const char * recognize_from_microphone()
{
//this is a near complete duplication of the code from main()
char const *cfg;
config = cmd_ln_init(NULL, ps_args(), TRUE,
"-hmm", MODELDIR "\\hmm\\en_US\\hub4wsj_sc_8k",
"-lm", MODELDIR "\\lm\\en\\turtle.DMP",
"-dict", MODELDIR "\\lm\\en\\turtle.dic",
NULL);
if (config == NULL)
{
return "config is null";
}
ps = ps_init(config);
if (ps == NULL)
{
return "ps is null";
}
ad_rec_t *ad;
int16 adbuf[4096];
int32 k, ts, rem;
char const *hyp;
char const *uttid;
cont_ad_t *cont;
char word[256];
char words[1024] = "";
//char temp[] = "hypothesis";
//hyp = temp;
if ((ad = ad_open_dev(cmd_ln_str_r(config, "-adcdev"),
(int)cmd_ln_float32_r(config, "-samprate"))) == NULL)
E_FATAL("Failed to open audio device\n");
/* Initialize continuous listening module */
if ((cont = cont_ad_init(ad, ad_read)) == NULL)
E_FATAL("Failed to initialize voice activity detection\n");
if (ad_start_rec(ad) < 0)
E_FATAL("Failed to start recording\n");
if (cont_ad_calib(cont) < 0)
E_FATAL("Failed to calibrate voice activity detection\n");
for (;;) {
/* Indicate listening for next utterance */
//printf("READY....\n");
fflush(stdout);
fflush(stderr);
/* Wait data for next utterance */
while ((k = cont_ad_read(cont, adbuf, 4096)) == 0)
sleep_msec(100);
if (k < 0)
E_FATAL("Failed to read audio\n");
/*
* Non-zero amount of data received; start recognition of new utterance.
* NULL argument to uttproc_begin_utt => automatic generation of utterance-id.
*/
if (ps_start_utt(ps, NULL) < 0)
E_FATAL("Failed to start utterance\n");
ps_process_raw(ps, adbuf, k, FALSE, FALSE);
//printf("Listening...\n");
fflush(stdout);
/* Note timestamp for this first block of data */
ts = cont->read_ts;
/* Decode utterance until end (marked by a "long" silence, >1sec) */
for (;;) {
/* Read non-silence audio data, if any, from continuous listening module */
if ((k = cont_ad_read(cont, adbuf, 4096)) < 0)
E_FATAL("Failed to read audio\n");
if (k == 0) {
/*
* No speech data available; check current timestamp with most recent
* speech to see if more than 1 sec elapsed. If so, end of utterance.
*/
if ((cont->read_ts - ts) > DEFAULT_SAMPLES_PER_SEC)
break;
}
else {
/* New speech data received; note current timestamp */
ts = cont->read_ts;
}
/*
* Decode whatever data was read above.
*/
rem = ps_process_raw(ps, adbuf, k, FALSE, FALSE);
/* If no work to be done, sleep a bit */
if ((rem == 0) && (k == 0))
sleep_msec(20);
}
/*
* Utterance ended; flush any accumulated, unprocessed A/D data and stop
* listening until current utterance completely decoded
*/
ad_stop_rec(ad);
while (ad_read(ad, adbuf, 4096) >= 0);
cont_ad_reset(cont);
fflush(stdout);
/* Finish decoding, obtain and print result */
ps_end_utt(ps);
hyp = ps_get_hyp(ps, NULL, &uttid);
fflush(stdout);
/* Exit if the first word spoken was GOODBYE */
//actually, for unity, exit if any word was spoken at all! this will avoid an infinite loop of doom!
if (hyp) {
/*sscanf(hyp, "%s", words);
if (strcmp(word, "goodbye") == 0)*/
break;
}
else
return "nothing returned";
/* Resume A/D recording for next utterance */
if (ad_start_rec(ad) < 0)
E_FATAL("Failed to start recording\n");
}
cont_ad_close(cont);
ad_close(ad);
ps_free(ps);
const char *temp = new char[1024];
temp = MakeStringCopy(hyp);
return temp;}
リターン温度を変更した場合。「ここに文字列」を返す; 次に、テキストがUnity内に表示されます。ただし、ハードコードされたテキストは必要ないため、音声認識コードの出力が必要です。これは、最終的にhyp変数内に格納されます。
誰かが私が間違っていることを理解するのを手伝ってもらえますか?ありがとう!