問題タブ [128-bit]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c - C 128ビットダブルタイプ
私は次のコードを持っています...
最後のブロックでは、128 ビットの 2 進数を表す必要があります。128 ビット値に _int128 型を使用できることはわかっていますが、完全に正確というわけではありません。
したがって、私は double 型を使用できる完全に正確であると考えていますが、128 ビットの double 型に関する文献は見つかりません。
何か案は?
c - この 128 ビット整数乗算は、アセンブリ (x86-64) でどのように機能しますか?
Computer Systems: A Programmer's Perspectiveを読んでいて、宿題はこのアルゴリズムがどのように機能するかを説明することでした。
C 関数:
組み立て:
なぜそれが実行されるのかわかりません:xh * yl + yh * xl = value which we add after unsigned multiplication
haskell - Haskell 128bit の表示
私の質問は次のとおりです: Haskell で 128 ビットで (2^63::Int) を表示することは可能ですか?
Int のため、abs (2^63::Int) は Int のために機能しませんが、128 ビットのコンピューターまたはコンパイラーを使用している場合、結果を表示することは可能ですか?
もちろん、可能であれば、道を教えてください:)
c - AMD64 の GCC でより大きなデータを移動するために 128 ビット長を取得するにはどうすればよいですか?
私のプログラムは、ほとんどの時間を配列を右にシフトして、新しいデータの挿入に道を譲ります。したがって、この特定のコードを最適化する方法を探しています。を使用するのではなく、memmove()
OpenMP を使用して実行を高速化する独自の関数を作成することにしました。
これが私のCコードのサブルーチンです:
以下の図が理解を助けることを願っています。
上記のコードからlong int
、1 つの CPU ステップで移動できる最大のチャンク データであるため、使用しています (推測します)。しかし、私はより大きなデータ長を探しています。
私の質問は次のとおりです: INTEL プロセッサは、データを移動するために 128 ビットの物理長を特にサポートしていますか? もしあれば、それを悪用する方法は?
GCC が数学演算で 128 ビットの int の長さをサポートしていることは承知していますが、私の理解では、2 倍の CPU サイクルが必要になるため、実際にはネイティブの 64 ビット データが 2 回繰り返されます。
c++ - boost::uuids::uuid を使用して 128/64 ビットの数値に変換する方法は?
このコードを使用して、ブーストから UUID を生成します。
「0xCC5B9F6946EF4448A89EDB2042E0B084」のような16進数が表示されます。
私の質問は次のとおりです。この文字列 (128 ビットの 16 進数) を 128 の long long または 64 bit long long に変換する方法 (より高いデータを失うことは問題ありません)。
この場合、標準の C 環礁と C++ std::stoll は役に立ちません。
ランダム生成の品質には UUID が優先されます。
ありがとうございました!