入力パラメータとして数百万文字*(通常は512文字未満の文字列(Unicode))を取り込んで、それらを.net文字列として変換および保存する必要があるアプリケーションがあります。
それは私のアプリケーションのパフォーマンスの本当のボトルネックであることが判明しました。より効率的にするためのデザインパターンやアイデアはあるのでしょうか。
改善できると感じさせる重要な部分があります。重複がたくさんあります。100万個のオブジェクトが入ってくるとすると、50個のユニークなchar*パターンしかないかもしれません。
ちなみに、char *をstringに変換するために使用しているアルゴリズムは次のとおりです(このアルゴリズムはC ++ですが、プロジェクトの残りの部分はC#です)
String ^StringTools::MbCharToStr ( const char *Source )
{
String ^str;
if( (Source == NULL) || (Source[0] == '\0') )
{
str = gcnew String("");
}
else
{
// Find the number of UTF-16 characters needed to hold the
// converted UTF-8 string, and allocate a buffer for them.
const size_t max_strsize = 2048;
int wstr_size = MultiByteToWideChar (CP_UTF8, 0L, Source, -1, NULL, 0);
if (wstr_size < max_strsize)
{
// Save the malloc/free overhead if it's a reasonable size.
// Plus, KJN was having fits with exceptions within exception logging due
// to a corrupted heap.
wchar_t wstr[max_strsize];
(void) MultiByteToWideChar (CP_UTF8, 0L, Source, -1, wstr, (int) wstr_size);
str = gcnew String (wstr);
}
else
{
wchar_t *wstr = (wchar_t *)calloc (wstr_size, sizeof(wchar_t));
if (wstr == NULL)
throw gcnew PCSException (__FILE__, __LINE__, PCS_INSUF_MEMORY, MSG_SEVERE);
// Convert the UTF-8 string into the UTF-16 buffer, construct the
// result String from the UTF-16 buffer, and then free the buffer.
(void) MultiByteToWideChar (CP_UTF8, 0L, Source, -1, wstr, (int) wstr_size);
str = gcnew String ( wstr );
free (wstr);
}
}
return str;
}