4 バイトを取り込んで IEEE-754 float に変換する必要があるプログラムがあります。バイトは順不同で転送されますが、順番に戻すことができます。私の問題は、それらをフロートにキャストすることです。コードの関連部分:
//Union to store bytes and float on top of each other
typedef union {
unsigned char b[4];
float f;
} bfloat;
//Create instance of the union
bfloat Temperature;
//Add float data using transmitted bytes
MMI.Temperature.b[2] = 0xD1;//MMIResponseMsg[7];
MMI.Temperature.b[3] = 0xE1;//MMIResponseMsg[8];
MMI.Temperature.b[0] = 0x41;//MMIResponseMsg[9];
MMI.Temperature.b[1] = 0xD7;//MMIResponseMsg[10];
//Attempting to read the float value
lWhole=(long) ((float)MMI.Temperature.f);
//DEBUGGING
stevenFloat = (float)MMI.Temperature.f;
lWhole
long でstevenFloat
float です。デバッグすると、バイト配列に割り当てた値が正しく格納されていることがわかりますが、 と の値はstevenFloat
正しくありませんlWhole
。それらは 0 に近いか、最大 float/long 値に近いように見えます。私のコンパイラでは、 long と float はどちらも 32 ビットです。
これが機能しない理由を誰かが知っていますか? 作業するコードを受け取ったとき、それは正しいように見えましたが、それはオンラインで一般的な解決策であるように見えます.私はただ困惑しています.