非常に大きなデータのファイルから入力を取得し、そのファイルに対していくつかの簡単な処理を実行してから、棚の辞書形式で保存するコードを作成しました。処理するエントリが4,100万あります。しかし、棚のdictに3500万のエントリを書き込んだ後、パフォーマンスが突然低下し、最終的には完全に停止します。これを回避するために私ができることはありますか?
私のデータはTwitterにあり、ユーザーの画面名をIDにマッピングしています。そのようです:
Jack 12
Mary 13
Bob 15
これらのそれぞれに名前ですばやくアクセスする必要があります。のように:私がそれを与えるとき、my_dict[Jack]
それは戻ります12
。