問題タブ [uint32-t]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c - (uint32_t) をハードコードされた値と比較しても安全ですか?
32ビット整数(実際には charsを表しますが、何でも)で一口演算を行う必要があります。
次のようなコードは安全ですか?
つまり、「if」ステートメントでは、左側の uint32_t と右側でビットごとの操作を行っています...わかりません!
ハードコーディングされた "0x03000000" のタイプとサイズ (つまり、保存されているバイト数) を知っていますか?
一部のシステムが 0x03000000 を int と見なし、2 バイトだけでコーディングする可能性はありますか?
c++ - uint32_t からビットを読み取る
uint32_t
リトルエンディアン形式で 8 ビットの情報を含むと想定されるa を返す関数を使用したいと考えています。uint32_t
これらのビットをタイプから文字、ブール値、またはフォースを使用する必要のない他のタイプに抽出する方法について、誰かが私にいくつかのC++コードを教えてくれませんか! 現時点では、エンディアンの概念全体を理解する忍耐力がありません。そして、浅く探せば探すほど複雑に見えます...
PS。私が探しているものではありuint32_t
ませんが、概念を理解するのに役立つと思うので、誰かが 8 ビット (例: 8 ブール値) をエンコードする方法に関するコードを投稿できれば興味深いでしょう。
ios - UIColor RGB カラーを uint32_t 値に変換する方法
UIColor オブジェクトを uint32_t 値に変換する方法。誰かがこれを知っているかどうか教えてください。
コードは次のとおりです。
uint32_tで0xFFFFFFFF値を渡す方法は?
c - unsigned int 値を uint32_t 変数に代入すると PC-Lint エラーが発生する
次のコード行があります。
au-misra2.lnt
これにより、構成ファイルを使用すると、次の 3 つの PC-Lint エラーが発生します。
変更:
0 の値が割り当てられます。
なぜこれが起こるのでしょうか?これは 32 ビット Cortex-M3 プロセッサ用であるため、これは unsigned int を unsigned int に割り当てる必要があります。なぜそれが受け入れられないのか理解できません。
誰にもアイデアはありますか?
c++ - uint32_t をバイナリにすばやく変換する
私が抱えている主な問題は、C ++でバイナリの値を読み取ることです(pythonには、これを行うための非常に迅速で簡単な関数がいくつかありました)
私は同じことが必要です。だから現時点で私は持っています:
使用するcout << data1;
と番号が表示されます2147581953
これをバイナリにしたいのですが、最終的には各「ビット」がすべて「0」を含む独自のビンにある必要があります。
この 32 ビット長の 2 進数を教えてください。私がそれを単純なintとして持っていたとき、私は使用しました:
しかし、これはエラーメッセージを表示するだけです。何か案は?
c - C が uint32_t を少し変更すると機能しない
私は得た
これにより、10000000000000001110000000000000が得られます
そして、私が行う別の関数で*(bits) |= 0 << 15;
は何もしません.16番目の1を0に変更する必要があるため、次のようになります:10000000000000000110000000000000
助けはありますか?