問題タブ [bit]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c++ - C / C ++:ビットフィールドの順序と配置を強制する
構造体内のビットフィールドの順序はプラットフォーム固有であることを読みました。異なるコンパイラ固有のパッキングオプションを使用する場合はどうなりますか?これにより、データが書き込まれるときに正しい順序で保存されることが保証されますか?例えば:
GCCコンパイラを搭載したIntelプロセッサでは、フィールドは示されているようにメモリに配置されていました。Message.version
バッファの最初の3ビットであり、その後にMessage.type
続きます。さまざまなコンパイラに相当する構造体パッキングオプションが見つかった場合、これはクロスプラットフォームになりますか?
comparison - 2つのビットパターンがNビットで異なるかどうかをテストするにはどうすればよいですか(位置は関係ありません)
私がこのビットフィールド値を持っているとしましょう:10101001
n
他の値がビットで異なるかどうかをどのようにテストしますか?ポジションを考慮せずに?
例:
私はこの比較をたくさんする必要があるので、私は主にパフォーマンスを探していますが、どんなヒントも大歓迎です。
sql-server - ビット フィールドから true/false カウントを 2 つの別々の列に取得する方法
True(1) と False(0) の数を 1 つのビット フィールドから 2 つの別々の列に合計するクエリを作成する必要があります。
私は3つのテーブルに参加していますが、次のようなものにする必要があります:
属性 | クラス | 合格 | 失敗
属性とクラスでグループ化します。
language-agnostic - 開発者が知っておくべき便利なビット演算子コードのトリックは何ですか?
ビット単位の演算子を使用する理由はまったくなかったと言わざるを得ませんが、ビットごとの演算子を使用するとより効率的に実行できたはずの操作がいくつかあると確信しています。「シフト」と「OR-ing」は、問題をより効率的に解決するのにどのように役立ちましたか?
c# - 上位ビット
私は長い間ハードウェア デバイスに対するプログラミングを扱っていなかったので、ほとんどすべての基本を忘れていました。
1 バイトで何を送信するかの仕様があり、各ビットは最上位ビット (bit7) から最下位ビット (ビット 0) まで定義されています。このバイトを構築するにはどうすればよいですか? MSB から LSB、またはその逆ですか?
c - 構造体のビット フィールドを削除する
質問があります。構造体でビット フィールドを使用するレガシー アプリケーションがあります。このようなもの
そのため、値は31 しかthree
持てません。MAX
MAX
ここで、 の値を増やす必要がありますthree
。ビットフィールドを削除する予定です。これで、より多くのメモリを処理できるようになります。この他に、何か気をつけることはありますか?それは他の害を引き起こしますか?
c - 低レベルの表現を確認するために C の double をビットごとに出力するにはどうすればよいですか?
double
コンピューターが型をビットで表現する方法を知りたいのですが、ビット演算子&
と|
ビット演算子は使用できませんdouble
。またmemcpy(&d, &src, 8)
、機能していないようです。助言がありますか?
c# - C# でフラグを比較する方法は? (パート2)
ビットフラグは理解するのが少し難しいです:)
私はこれとこの質問について知っており、答えも理解しています。また、親友からのこの記事もフォローしました。
でも、基準以上の「進化」がいつ必要なのか、いまだにわかりません…
私がやろうとしているのはこれです:
List オブジェクトをフィルタリングする必要があるので、ユーザーが望むものだけを取得できます (INFO エラー、例外 ERROR のみを表示しますが、WARNing エラーは常に表示されます) ...
これを行う直接的な方法はありますか、または LAMBDA 式を使用せずに手動でフィルタリングする必要がありますか?
助けてくれてありがとう。
architecture - ビット数が常に (?) 2 の累乗になるのはなぜですか?
8 ビット、16 ビット、32 ビット、および 64 ビットのハードウェア アーキテクチャとオペレーティング システムがあります。しかし、たとえば、42 ビットまたは 69 ビットのものではありません。
なんで?2^n ビットをより良い選択にする基本的なものですか、それとも既存のシステムとの互換性に関するものですか? (64 ビット レジスタが 2 つの 32 ビット ポインターを保持できること、または 32 ビット データ ユニットが 4 バイトを保持できることは明らかに便利です。)