これは、リモート Dask kubernetes クラスターでメモリ リークの問題を再現するための最小限のテストのサンプルです。
def load_geojson(pid):
import requests
import io
r = requests.get("https://github.com/datasets/geo-countries/raw/master/data/countries.geojson")
temp = r.json()
import sys
size_temp = sys.getsizeof(temp)
del temp
return size_temp
L_geojson = client.map(load_geojson, range(200))
del L_geojson
観察: 実行ごとに約 30 MB ずつワーカー メモリ (バイト ストレージ) が着実に増加し、メモリ全体が使用されるまで増加し続けます。urllib で試した別のテストでは、実行ごとにメモリがランダムに増減することがわかりました。
望ましい動作: 参照 L_geojson が削除された後、メモリをクリーンアップする必要があります。
誰かがこのメモリリークの問題を手伝ってくれませんか?