1

私は Python を使用して、MS SQL Server データベースから大量のデータを取得し、それらを処理してグラフを作成しています。

本当の問題は、クエリで WHERE や SELECT DISTINCT などの属性を使用して、(SQL クエリに pyodbc を使用して) データをフィルター処理するためにクエリを繰り返し実行することをお勧めするかどうかを知りたかったことです。

また

データをフェッチし、リスト内包表記を使用するには、Python のマップおよびフィルター機能を使用して、コード自体でデータをフィルター処理します。

前者を選択すると、約 1,000 のクエリが実行され、Python コードの負荷が大幅に軽減されます。後者を選択すると、クエリを 1 回実行し、フェッチしたすべてのレコードを処理する関数の束を追加します。ほぼ同じ回数(1k)。

問題は、python が純粋に機能的ではないということです (もしそうなら、私は尋ねず、今までに何百回も自分の仕事を終えてテストしたでしょう)。

皆さんはどちらをお勧めしますか?

参考までに、私は Python 2.7 を使用しています。情報源も教えていただけると助かります。また、スペースはデータ全体を取得するための問題ではありません。

ありがとう

4

1 に答える 1

0

余裕があり、SQL よりも Python を好む場合は、Python で 1 つの大きなクエリとフィルター処理を実行してください。

それ以外の場合は、複数のクエリを使用した方がよいでしょう。

申し訳ありませんが、ここには参照がありません。^_^

于 2013-07-20T00:31:02.297 に答える