C#:
char z = '\u201D';
int i = (int)z;
C++/CLI:
wchar_t z = '\u201D';
int i = (int)z;
C# では " i
" は、私の予想どおり、8221 ($201D) になります。一方、C++/CLI では 65428 ($FF94) になります。親切な魂がこれを私に説明できますか?
EDIT:サイズはwchar_t
ここでは問題になりません。理由は次のとおりです。
C++/CLI:
wchar_t z = (wchar_t)8221;
int i = (int)z;
ここでもi
8221 になるのでwchar_t
、私のシステムで 16 ビット整数を保持するゲーム次第です。エケフォルシュス