問題タブ [berkeley-db]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
2 に答える
1430 参照

berkeley-db - Java を使用してバークレー データベースを作成する方法

私は berkeley db が初めてです。リンクテキストを使用してberkely dbをインストールしました

だから私は最初のデータベースを作成する必要がありますサンプルプログラムをチェックしましたが、簡単だとは思いませんサンプルデータベースを作成するのを手伝ってください...そしてJava用APIの使用方法

0 投票する
1 に答える
314 参照

hash - Berkeley DB:ハッシュアクセス方式のロックオブジェクトの数

このページには、「ハッシュアクセスメソッドの場合、必要なロックオブジェクトは1つだけです」と記載されています。

http://www.oracle.com/technology/documentation/berkeley-db/db/programmer_reference/lock_max.html

これは、データベースにアクセスするすべてのプロセス/スレッドが同じロックオブジェクトをロックしようとすることを意味しますか?それは非常に高いロック競合を引き起こしませんか?

ありがとう!

-ミチ

0 投票する
2 に答える
685 参照

java - Berkeley DB を使用するすべてのオープン ソース アプリケーションは何ですか?

Berkeley DB とその使い方を学んでいます。誰かが BerkeleyDB を使用してオープン ソース アプリケーションを指摘できますか。

私は Java (BDB Java エディション) を使用していますが、他のプログラミング言語を参照することにもオープンです。

0 投票する
1 に答える
1267 参照

java - berkeleydbjavaコンパイルの問題

私はberkeleydbを初めて使用し、berkeley db(javaバージョンではない)をインストールしました。javaサンプルプログラムを実行しようとすると、次のように表示されます。

jarライブラリはありません。Javaパスにlibを含めるにはどうすればよいですか...。

`

0 投票する
2 に答える
633 参照

c++ - マシンデータを保存するための最良のNoSQL方法は?

ツール、ワークピース、製品、操作などに関する情報のようなマシンデータを保存する NoSQL の方法を探しています...現在、私は BerkeleyDB に集中しており、別の nosql の使用を検討する必要があるかどうか、皆さんからの意見が必要です。 -私の要件により適したデータベース。このデータベースに保存されたデータは、他のマシンに転送可能である必要があり、API のオーバーヘッドが大きすぎてはなりません...おそらく、それを管理するための完璧なデータベースは1 つもありませんが、誰かがそれを解決する良いアイデアを持っているかもしれません。

ここには他にも関連する質問がいくつかありますが、直接必要なものではありません。

もう少し正確に言うと、私は、ドリル、巻線、または大きなホブの製造に使用される大型の研削盤を製造する会社で働いています。長さ、角度、速度など、マシンが使用するツール、研削できる製品について保存する情報がたくさんあります。

私が必要としているのは、不要なオーバーヘッドを提供しない非リレーショナル データベース モデルです...単純で埋め込まれている必要がありますが、私の要件に適合している必要があります。

データベースで動作するソフトウェアは C/C++ で書かれています。

事前にご協力いただきありがとうございます。

0 投票する
1 に答える
2135 参照

c++ - BerkeleyDBおよびC++ベンチマークの例?

研究目的のために、小さなberkeleydbとc++コードを使用してベンチマークを実行しようとしています。現在、次のコードでテストしています。増分整数のみでレコードを埋めています(読みやすくするためにエラー処理などを省略しました)

(dbは私自身のberkeley dbクラスです)

したがって、私の質問は、100.000のプットアクションの時間が約1900ミリ秒(〜2秒)であるため、これがベンチマークの効率的な方法であるかどうかです。berkeleyが発行したホワイトペーパーでは、1秒あたり最大90.700のプットアクションの結果が得られたと述べています...私のベンチマークでは、1秒あたり約50.000のプットアクションがあります。

バークレーのベンチマークを行うためのより良い方法はありますか?バークレーを使い始めてテストするためのコード例はありますか?

前もって感謝します。

0 投票する
2 に答える
5571 参照

svn - Subversion FSFS - how are revisions stored in the repository?

I'd like to understand how subversion stores revisions in FSFS, and how a view/shapshot is constructed for a given revision number.

What I have gleaned from Googling is that FSFS is a simple directory structure, with sub-directories for each revision like:

Presumably only the changes (deltas) are recorded under each revision directory. So does this mean that when constructing the view/snapshot for revision N, all the deltas from 0 to N have to be looped over?

Any links to resources on this much appreciated.

Thanks

0 投票する
1 に答える
480 参照

java - Does Berkeley DB (Java version) support data partitioning?

I have about 5GB data to store BDB, but I found the performance is not very good. Does it support data partitioning? thanks

0 投票する
3 に答える
2534 参照

perl - 何百万ものエントリに対するSQLiteの最適化?

SQLite データベースと Perl モジュールを使用して問題に取り組もうとしています。最終的には、何千万ものエントリをログに記録する必要があります。各アイテムの唯一の一意の識別子は、URL のテキスト文字列です。私はこれを2つの方法で行うことを考えています:

方法 #1: 良いテーブル、悪いテーブル、並べ替えられていないテーブルを用意します。(html をチェックして、それが必要かどうかを判断する必要があります。) 合計 10 億ページ、各テーブルに 3 億 3,300 万の URL があるとします。追加する新しい URL があり、それがいずれかのテーブルにあるかどうかを確認して確認し、一意である場合は Unsorted に追加する必要があります。また、このオプションを使用すると、多くの行を移動できます。

方法 2: Master と Good の 2 つのテーブルがあります。Master には 10 億のページ URL がすべてあり、Good には私が必要とする 3 億 3300 万の URL があります。新しい URL は、同じことを行う必要があります。ただし、今回は 1 つのテーブルのみを照会し、Master から行を削除することはなく、データを Good に追加するだけです。

したがって、基本的には、巨大な SQLite データベースをすばやくクエリして、20 文字までのテキスト文字列が一意かどうかを確認し、そうでない場合は追加するための最適なセットアップを知る必要があります。

編集: Perl モジュールを使用して Berkeley DB を動作させようとしていますが、ダイスはありません。ここに私が持っているものがあります:

そして、これを実行すると、次のようになります。

0 投票する
2 に答える
4840 参照

berkeley-db - BerkeleyDBでのプットパフォーマンスの最適化

私は数日前にBerkeleyDBで遊んだばかりなので、データをできるだけ速く保存することに関して、私が見逃していたものがあるかどうかを確認しようとしています。

データに関するいくつかの情報は次のとおりです:-512バイトのチャンクで提供されます-チャンクは順番に提供されます-チャンクはFIFOの順序で削除されます-停電のためにデータが失われた場合、データベース全体が問題ない限り問題ありません '壊れた

たくさんのドキュメントを読んだ後、キューデータベースはまさに私が望んでいたもののようでした。

ただし、いくつかのテストコードを試した後、私の最速の結果は、DB_APPENDが設定されたDB->putをループするだけで毎秒約1MByteでした。トランザクションとバルクプットも試してみましたが、どちらもかなり遅くなったので、あまり長くは追求しませんでした。Freescalei.MX35開発ボードのNANDFlashチップ上に作成された新しいデータベースに挿入していました。

少なくとも毎秒2Mバイトの書き込み速度を目指しているので、ハードウェアがこれよりも速く書き込むことができることを知っているので、速度を向上させることができる何かを見逃したのではないかと思いました。