次の Python コードを C++ に変換しようとしています。
import struct
import binascii
inputstring = ("0000003F" "0000803F" "AD10753F" "00000080")
num_vals = 4
for i in range(num_vals):
rawhex = inputstring[i*8:(i*8)+8]
# <f for little endian float
val = struct.unpack("<f", binascii.unhexlify(rawhex))[0]
print val
# Output:
# 0.5
# 1.0
# 0.957285702229
# -0.0
そのため、16 進数でエンコードされた 32 ビットの文字列を読み取り、unhexlify
メソッドを使用してそれをバイト配列に変換し、リトルエンディアンの float 値として解釈します。
以下はほとんど機能しますが、コードはちょっとお粗末です (そして、最後の00000080
構文は正しく解析されません)。
#include <sstream>
#include <iostream>
int main()
{
// The hex-encoded string, and number of values are loaded from a file.
// The num_vals might be wrong, so some basic error checking is needed.
std::string inputstring = "0000003F" "0000803F" "AD10753F" "00000080";
int num_vals = 4;
std::istringstream ss(inputstring);
for(unsigned int i = 0; i < num_vals; ++i)
{
char rawhex[8];
// The ifdef is wrong. It is not the way to detect endianness (it's
// always defined)
#ifdef BIG_ENDIAN
rawhex[6] = ss.get();
rawhex[7] = ss.get();
rawhex[4] = ss.get();
rawhex[5] = ss.get();
rawhex[2] = ss.get();
rawhex[3] = ss.get();
rawhex[0] = ss.get();
rawhex[1] = ss.get();
#else
rawhex[0] = ss.get();
rawhex[1] = ss.get();
rawhex[2] = ss.get();
rawhex[3] = ss.get();
rawhex[4] = ss.get();
rawhex[5] = ss.get();
rawhex[6] = ss.get();
rawhex[7] = ss.get();
#endif
if(ss.good())
{
std::stringstream convert;
convert << std::hex << rawhex;
int32_t val;
convert >> val;
std::cerr << (*(float*)(&val)) << "\n";
}
else
{
std::ostringstream os;
os << "Not enough values in LUT data. Found " << i;
os << ". Expected " << num_vals;
std::cerr << os.str() << std::endl;
throw std::exception();
}
}
}
(OS X 10.7/gcc-4.2.1 でコンパイル、単純なg++ blah.cpp
.
特に、この投稿で説明さBIG_ENDIAN
れているように、これを行うためのより良い方法があると確信しているため、マクロのものを取り除きたいと思います。
その他のランダムな詳細はほとんどありません - Boost を使用できません (プロジェクトの依存関係が大きすぎます)。文字列には通常、1536 (8 3 *3) から 98304 個の float 値 (32 3 *3) が含まれ、多くても 786432 (64 3 *3)です。
(edit2: 別の値を追加00000080
== -0.0
)