問題タブ [bitarray]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c++ - C ++でビット配列を格納する方法は?
たとえば、ボリューム割り当てビットマップを表すビット配列をC ++(Boostなし、標準コンテナーのみ)に格納するための最良の方法は何ですか?
std::vector<bool>
素晴らしいアイデアだと思いましたが、どうやらそれは邪悪で非推奨なので、より良い選択肢はありますか?
また:
メモリにバイト配列がある場合、推奨されるコンテナにそれらをコピーするにはどうすればよいですか?
(私はこれを理解するのに苦労していvector<bool>
ます。)
c# - BitArray の操作
整数をaに読み取る方法BitArray(6)
(含まれていると仮定)と、aBitArray(6)
を符号なし/符号付き整数に変換する方法。
mongodb - 一意のユーザー ID のシーケンスを格納するために MongoDB で自動インクリメント
私は分析システムを作成しています。API 呼び出しは一意のユーザー ID を提供しますが、順序が正しくなく、まばらすぎます。
bitarray/bitset 内の分析データポイントをマークするために、各 Unique User ID に自動インクリメント ID を与える必要があります。したがって、最初に遭遇したユーザーは bitarray の最初のビットに対応し、2 番目のユーザーは bitarray の 2 番目のビットに対応する、というようになります。
MongoDB でインクリメンタルな一意のユーザー ID を生成する確実で迅速な方法はありますか?
python - このカウント プログラムのパフォーマンスを改善するにはどうすればよいですか?
ファイルは次のようになります。
最初のフィールドは ID ですin range(0, 200000000)
。2 番目のフィールドはタイプを表し、これはin range(1, 5)
です。また、タイプ 1 とタイプ 2 は共通のカテゴリS1
に属し、タイプ 3 とタイプ 4 は共通のカテゴリに属しS2
ます。1 つの ID に、タイプの異なる複数のレコードが含まれる場合があります。ファイルのサイズは約 200MB です。
問題は、タイプ 1 または 2 のレコードを持つ ID の数と、タイプ 3 または 4 のレコードを持つ ID の数を数えることです。
私のコード:
答えは出ますが、動作が少し遅いと思います。より速く実行するにはどうすればよいですか?
編集:
ファイルに重複したレコードがあります。そして、S1 (タイプ 1 とタイプ 2) と S2 (タイプ 3 とタイプ 4) を区別する必要があるだけです。たとえば、1440927 1
and1440927 2
は 1 回だけカウントされますが、S1 に属しているため 2 回ではありません。そのため、ID を保存する必要があります。
vb.net - MP3フレームヘッダーの読み取り-変数へのビット値の割り当て
Visual Basic .netを学習していて、Javaソースコードをvb.netプロジェクトに変換しようとしています。プロジェクトはmp3の詳細を読み取り、フレームヘッダーの詳細などに従ってファイルを正確に分割します。
私の質問は、mp3ファイルのフレームヘッダーの読み取りに関するものです。フレームの詳細はフレームの最初の4(32ビット)バイトに含まれ、特定のビットはここで詳しく説明されているように特定の値を表すことを理解しています:http ://www.mp3-tech.org/programmer/frame_header.html
FileStreamを使用して、このデータを読み取り、テキストボックス内にバイナリで表示することができました。
ビットを読み取り、クラス内の変数に割り当てるためのヘルプを探しています。長さが1、2、または4ビットの値として、これを行うための正しい手順がわかりません。たとえば、ビット19〜20 = MpegType、ビット12〜15 = BitrateIndex、ビット9=パディングなどです。
codeproject.comで入手できる同様のプロジェクトを見てきましたが、それらが上記をどのように達成したのかわかりません。
どんな助けでも大歓迎です。
編集:
これがこれまでのメインサブです。変数やプロパティなどを宣言するコードは含まれていません。
これを実行すると、リッチテキストボックスの出力は次のようになります。
これらのビットを読み、変数に適切な値を割り当てたいと思います。
同期値の最初の12ビットを読み取ります。mpegID値のビット13を読み取ります。layerID値などのビット14と15を読み取ります。
それがより明確になることを願っています。
Javaコードは次のとおりです。
c# - BitArrayはビットを間違った方法で返しますか?
このコード:
次の出力が得られます。
逆にすべきではありませんか?このような:
これらの用語はバイトの位置のみを指しますが、エンディアンはほとんどなく、大きいことを認識しています。私の知る限り、それらはビットに影響を与えません。
c - Cビット配列マクロ、これらがどのように機能するかを誰かに説明してもらえますか?
私は学校のプロジェクトにエラトステネスのふるいを実装しようとしていますが、ビット配列を使用して実装することにしました。資料を探していると、この3つのマクロに出くわしましたが、問題なく動作しますが、実際には読めません(理解できません)。
そのうちの少なくとも1つについて詳しく説明していただけますか。私は、Cでのビット演算について非常に基本的な知識を持っています(基本的には、それらが「存在する」ことを知っています)。
これは、異なるエンディアンを使用する別のアーキテクチャで機能しますか?前もって感謝します。
c# - C#でバイナリデータをバイトに変換する
バイナリ値を含むテキスト ファイルがあります。たとえば、ファイル「file.txt」があり、バイナリデータが含まれているとします。たとえば、11001010 このファイルのサイズは8 バイトです。しかし、これらの8 バイトをビット、つまり8 ビットとして読み取り、8 ビットを 1 バイトにする必要があります。どうすればそれができますか?1. バッファを取り、個々の値をバッファに読み込みます。 2. バッファ値が 8 に達したら、それらの 8 ビットを 1 バイトにして、ファイルに書き込みます。
前もって感謝します。