0

私の Web サイトでは、ユーザーが csv ファイルをアップロードします。

このライブラリを使用して csv ファイルを読み込んでいますhttp://www.codeproject.com/Articles/11698/A-Portable-and-Efficient-Generic-Parser-for-Flat-F csv ファイルには約 4000 レコード (それぞれ5 列のレコード)。

各レコードをリストに読み込んで、オブジェクトの大きなリストを検索しています(csvファイルの読み取りを開始する前に、サービスからキャッシュにオブジェクトの大きなリストを読み込んでいます)。このレコードが既に存在するかどうかを確認します。

このようにして、4000回の反復を行う必要があり、各反復でオブジェクトの大きなリスト(キャッシュにある約10万レコード)を検索する必要があります。

これは実装の良い方法ですか?速度を改善する方法はありますか?このような大きなリストをキャッシュに保存するのは良い考えですか?

私の環境はVS2010、.NET4.0、

4

1 に答える 1

0

リストに適切なデータ構造を使用することで、検索を高速化できます。アイテムに一意/主キーがある場合は、アイテムごとにリスト全体を反復するよりも効率的なハッシュマップを使用できます。このようにして、hashmap.containskey() を使用できます。

サービスを実行する場合、責任をサービスにプッシュできます。おそらく、比較のために一意のキーのリストをそこにプッシュします。

より具体的な回答のためにコードを投稿できるかもしれません。

于 2013-02-19T07:16:18.163 に答える