問題タブ [bit]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
mysql - DBIx を使用して mysql ビットを使用するにはどうすればよいですか
Catalyst アプリで mysql ビット フィールドにアクセスしようとしています。テーブル情報は次のとおりです。
SQL:
私のマップされたテーブル:
...
今私のコントローラーで、私は簡単なことをします
私のテンプレートでは、次のことを試しました:
私も試してみました
しかし、それもうまくいきませんでした。データベースのフィールド タイプ自体を変更する以外の方法はありますか?
java - バイト b = (バイト) 0xFF が整数 -1 に等しいのはなぜですか?
byte b = (byte) 0xFF
が に等しいのはなぜinteger
-1
ですか?
元:
それは印刷されます-1
か?
c - Cのバイナリへのバイト
fget から受け取ったバイトを単純にバイナリに変換しようとしています。
値の出力に基づいて、最初のバイトの値が 49 であることがわかりました。これをバイナリ値に変換する必要があります。
これは印刷されます:
明らかに、これはバイナリ値ではありません。何か助けはありますか?
c# - ビット/バイト変換
長さが 10 文字の .NET 文字列は何ビットですか? (.NET 文字列は UTF-16 ですよね?)
math - ビットの合計ではなく、1 の補数
私の大学の宿題での質問は、なぜ TCP チェックサムのビットの合計ではなく、1 の補数を使用するのかということです。私の本でそれを見つけることができず、Google も役に立ちません。誰かが私を正しい方向に向けることができますか?
ありがとう、マイク
assembly - 80x86 でのアトミック ビットフィールド操作?
80x86 には、単語の個々のビットをアトミックにテストして設定するための命令がありますか?
c - C unsigned int 配列とビット シフト
短い符号なし整数の配列がある場合。
array[k+1] を 8 ビット左にシフトすると、array[k+1] の下半分に 8 ビットが入りますか?
それとも、要素に割り当てられたスペースの外に出たために、単にドロップオフするのでしょうか?
java - Mac OS X で .app にバンドルされた Java アプリケーションを 32 ビット モードで実行するにはどうすればよいですか?
私は Windows Vista で Java アプリケーションを作成しましたBonjour
。すべてのアップデートを .jar ファイルとしてインストールして Mac OS X 10.5.8 で実行すると、完全に実行されます。しかし、それを使用してバンドルを作成するJar Bundler
と失敗します
「メイン メソッドでキャッチされない例外: java.lang.UnsatisfiedLinkError: /usr/lib/java/libjdns_sd.jnilib: 適切なイメージが見つかりません。見つかりました: /usr/lib/java/libjdns_sd.jnilib: ユニバーサル ラッパーに一致するアーキテクチャがありません」 .
問題は、Bonjour
プロトコルの64ビット実装がないことです。したがって、.jar と同様に .app を 32 ビット モードで実行する必要があります。
jarファイルを実行すると:
.app を実行すると:
Jar Bundler の JVM バージョンを 1.5* に設定し、.app バンドルの Info.plist で多くのオプションを試しました。
しかし、それは何もしません。
誰かが決定を知っていますか?
java - C++ビットパターンのJavaへの変換
私はC++プログラムをJavaに変換していますが、次の方法で完全に行き詰まり、頭がおかしくなりました。この方法が何をしているのか説明していただけませんか?
編集:
私の最初のJavaバージョン:
私はそれを正しくしましたか?
c++ - ビットフィールドの読み取りを32ビットに強制します
PCIバスを介してVMEブリッジチップ(Tundra Universe II)への32ビット未満の読み取りを実行しようとしています。VMEブリッジチップはVMEバスに接続され、ターゲットによってピックアップされます。
ターゲットVMEアプリケーションはD32(32ビットのデータ幅読み取り)のみを受け入れ、それ以外は無視します。
VMEウィンドウにマップされたビットフィールド構造を使用する場合(メインメモリにnmapされます)、24ビットを超えるビットフィールドを読み取ることができますが、それ以下のものは失敗します。すなわち:-
これは、構造体が32ビットとして読み取られることを示していますが、たとえばreg-> fail.aの構造体を介した読み取りが失敗すると、Xビットの読み取りに因数分解されます。(Xは16または8の場合がありますか?)
したがって、質問は次のとおり
です。a)これはどこで縮小されますか?コンパイラ?OS?またはツンドラチップ?
b)実行された読み取り操作の実際のサイズはどれくらいですか?
私は基本的にチップ以外のすべてを除外したいと思います。そのドキュメントはWeb上にありますが、PCIバスを介して要求されたデータ幅が32ビットであることが証明できる場合、問題はTundraチップのせいにすることができます。
編集:-
具体的な例、コードは次のとおりです:-
だから今私はこれに変更しました:-
そして、基本の主な構造体:-
だから私はまだすべてのベースラインコードを変更する必要があります
また、元のコードのように、2回目の読み取りで実際に実際の読み取りが再度行われないかどうかをどのように知ることができますか?(ユニオンを介してすでに読み取られたビットを使用する代わりに!)