3

「トピック」を含むデータベーステーブルが必要なので、ウィキペディアのカテゴリのSQLファイルをダウンロードしました( http://dumps.wikimedia.org/enwiki/latest/のenwiki-latest-category.sql.gz )

ファイルは74MB(解凍済み)ですが、mysqlの制限は32MBです。このファイルをインポートするにはどうすればよいですか?

ちなみに、bigdump(http://www.ozerov.de/bigdump/)を試しましたが、インポート制限も32MBのようです。

4

2 に答える 2

0

32MBに分割して、個別にインポートすることができます。それほど時間のかかることではありません。

于 2012-05-21T19:39:27.840 に答える
0

Windows デスクトップに mysql がインストールされている場合は、試してみてください。

ローカルの mysql ボックスで次の手順を実行してください

  • STEP 01) ファイル enwiki-latest-category.sql.gz を enwiki-latest-category.sql に解凍します

  • ステップ 02)CREATE DATABASE mycat;

  • STEP 03) `mysql -u... -p... -Dmycat < enwiki-latest-category.sql

  • STEP 04) カテゴリの CREATE TABLE をエクスポートする

    mysqldump -u... -p... --no-data mycat カテゴリ > category_00.sql

  • STEP 05) 10分割したデータをダンプします。AUTO_INCREMENT は 134526529 なので、135000000 (1 億 3500 万) に丸めます。一度に 20% (2700 万) をダンプする

--whereに対してオプションを使用して 5 つの mysqldump を実行するだけです。cat_id

mysqldump -u... -p... --no-create-info mycat category --where="cat_id <=  27000000"                         | gzip > category_01.sql.gz
mysqldump -u... -p... --no-create-info mycat category --where="cat_id  >  27000000 AND cat_id <=  54000000" | gzip > category_02.sql.gz
mysqldump -u... -p... --no-create-info mycat category --where="cat_id  >  54000000 AND cat_id <=  81000000" | gzip > category_03.sql.gz
mysqldump -u... -p... --no-create-info mycat category --where="cat_id  >  81000000 AND cat_id <= 108000000" | gzip > category_04.sql.gz
mysqldump -u... -p... --no-create-info mycat category --where="cat_id  > 108000000"                         | gzip > category_05.sql.gz

これらの 6 つのファイルをアップロードし、解凍して、順番にロードします。

試してみる !!!

于 2012-05-21T20:13:10.710 に答える