注:コメントと回答に基づいて元の質問を編集しました。
私の質問は、大量のPythonデータがプログラムに入力された場合、どのようにしてそのデータを遅延させ、メモリがオーバーフローしないようにすることができるかということです。
たとえば、ファイルを読み込んで各行または行の一部をリストに追加することによってリストを作成する場合、そのリストは怠惰ですか?言い換えれば、リストを追加してリストを怠惰にすることはできますか?リストに追加すると、ファイル全体がメモリに読み込まれますか?
そのリストをウォークスルーしたい場合は、アクセスを怠惰に保つためのジェネレーター関数を作成することを理解しています。
この質問のきっかけとなっているのは、この最近のSO投稿です
MySQLの毎日の水道メーター読み取りテーブルの1つなど、このデータが1,000万行のデータベーステーブルからのものである場合、データを遅延させる方法を知らずにmysqldb fetchall()コマンドを使用することはありません。代わりに、一度に1行ずつ読み取ります。
しかし、メモリ内のそのデータの内容を遅延シーケンスとして必要とした場合はどうなりますか?Pythonでどのように実行しますか?
私が特定の問題を抱えたソースコードを提示していないことを考えると、私が探している答えは、この問題を解決するためのPythonドキュメント内の場所または他の場所へのポインターです。
ありがとう。