0

私はcrawler4jを使用してWebサイトをクロールしようとしています。私はcrawler4jのウェブサイトの指示に従うことができました。完了すると、2つの異なる.lckファイル(1つは.jdbファイル、もう1つは.info.0ファイル)を含むフォルダーが作成されます。

この回答で提供したコードを使用してファイルを読み込もうとしましたが、失敗し続けます。以前に同じ関数を使用してテキストファイルを読み取ったことがあるので、コードが機能することはわかっています。

また、数か月前に同じ質問をした人を見つけました。彼らは決して答えを得ませんでした。

コードを使用してこれらの.lckファイルを開いてメモリに読み取ることができないのはなぜですか?

4

1 に答える 1

1

Crawler4jは、BerkeleyDBを使用してクロール情報を保存します。ソースでここを参照してください。

コマンドラインから、DButilsを使用してデータにアクセスできます。すでにここでSOでカバーされています。

Javaコードのデータにアクセスする場合は、BerkeleyDBライブラリ(Maven命令があります)をインポートし、DBを開く方法のチュートリアルに従います。

于 2013-03-29T15:17:41.400 に答える