1

ウィキペディアの xml ダンプをダウンロードしました。そのデータはなんと 12 GB です:\ 1 つのテーブルに対して、それをローカルホストの mysql データベースにインポートしたかったのですが、12 GB の巨大なファイルであり、明らかに navicats がその甘い時間を費やしていますそれをインポートするか、ハングしている可能性が高いです:(。

このダンプを含める方法はありますか、または少なくとも部分的にでも、少しずつ知っている方法はありますか。


その 21 GB のデータが役に立たないことを訂正させてください :\ - このような膨大なファイルを MySQL データベースにインポートする考えを持っている人はいますか。

4

3 に答える 3

2

代わりにコマンド ラインを使用してください。navicat は大きなファイルをインポートするには最悪であり、CLI を使用するよりも 20 倍の時間がかかる可能性があります。

于 2009-05-14T13:13:40.083 に答える
1

12GB全体をメモリに読み込むのではなく、コーパスを1つずつ読み取ることができるSaxパーサーを調べてください。ただし、mysqlとのインターフェース方法はよくわかりません。

于 2009-05-14T10:45:43.420 に答える