2

質問

dtype の種類が少ない一連の DataFrame が多数ある場合、最初に圧縮率、2 番目に解凍速度、3 番目に初期圧縮速度を考慮する場合、Pandas DataFrame の永続化/シリアル化の最適な設計は何ですか?

バックグラウンド:

ファイルごとに約 50 個のデータ フレームの論理ブロックに格納する必要がある [2900,8] 形状のデータフレームが約 20 万個あります。データ フレームには、np.int8、np.float64 型の変数が含まれています。ほとんどのデータ フレームはスパース型に適していますが、スパースは HDF 'テーブル' 形式のストアではサポートされていません (それが役立つというわけではありません - スパース gzip 圧縮されたピクルについては、以下のサイズを参照してください)。データは毎日生成され、現在合計で 20 GB を超えています。私は HDF に縛られているわけではありませんが、最高品質の圧縮と組み合わせて、永続ストア内の個々のデータフレームの読み取りを可能にするより良いソリューションをまだ見つけていません。繰り返しになりますが、圧縮率を向上させるために少し速度を犠牲にしても構わないと思っています。特に、これをネットワーク全体に送信する必要があるためです。

同様の立場にあるものに関連する可能性のある他のSOスレッドと他のリンクがいくつかあります。ただし、私が見つけたもののほとんどは、優先順位としてストレージ サイズを最小限に抑えることに焦点を当てていません。

pandas を使用した「大規模データ」ワークフロー

HDF5 と SQLite。同時実行性、圧縮、I/O パフォーマンス [終了]

環境:

OSX 10.9.5
Pandas 14.1
-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=
PyTables version:  3.1.1
HDF5 version:      1.8.13
NumPy version:     1.8.1
Numexpr version:   2.4 (not using Intel's VML/MKL)
Zlib version:      1.2.5 (in Python interpreter)
LZO version:       2.06 (Aug 12 2011)
BZIP2 version:     1.0.6 (6-Sept-2010)
Blosc version:     1.3.5 (2014-03-22)
Blosc compressors: ['blosclz', 'lz4', 'lz4hc', 'snappy', 'zlib']
Cython version:    0.20.2
Python version:    2.7.8 (default, Jul  2 2014, 10:14:46)
[GCC 4.2.1 Compatible Apple LLVM 5.1 (clang-503.0.40)]
Platform:          Darwin-13.4.0-x86_64-i386-64bit
Byte-ordering:     little
Detected cores:    8
Default encoding:  ascii
Default locale:    (en_US, UTF-8)
-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=

例:

import pandas as pd
import numpy as np
import random
import cPickle as pickle
import gzip


def generate_data():
    alldfs = {}
    n = 2800
    m = 8
    loops = 50
    idx = pd.date_range('1/1/1980',periods=n,freq='D')
    for x in xrange(loops):
        id = "id_%s" % x
        df = pd.DataFrame(np.random.randn(n,m) * 100,index=idx)
        # adjust data a bit..
        df.ix[:,0] = 0
        df.ix[:,1] = 0
        for y in xrange(100):
            i = random.randrange(n-1)
            j = random.randrange(n-1)
            df.ix[i,0] = 1
            df.ix[j,1] = 1
        df.ix[:,0] = df.ix[:,0].astype(np.int8)  # adjust datatype
        df.ix[:,1] = df.ix[:,1].astype(np.int8)
        alldfs[id] = df
    return alldfs

def store_all_hdf(x,format='table',complevel=9,complib='blosc'):
    fn = "test_%s_%s-%s.hdf" % (format,complib,complevel)
    hdfs = pd.HDFStore(fn,mode='w',format=format,complevel=complevel,complib=complib)
    for key in x.keys():
        df = x[key]
        hdfs.put(key,df,format=format,append=False)
    hdfs.close()

alldfs = generate_data()
for format in ['table','fixed']:
    for complib in ['blosc','zlib','bzip2','lzo',None]:
        store_all_hdf(alldfs,format=format,complib=complib,complevel=9)

# pickle, for comparison
with open('test_pickle.pkl','wb') as f:
    pickle.dump(alldfs,f)

with gzip.open('test_pickle_gzip.pklz','wb') as f:
    pickle.dump(alldfs,f)

with gzip.open('test_pickle_gzip_sparse.pklz','wb') as f:
    sparsedfs = {}
    for key in alldfs.keys():
        sdf = alldfs[key].to_sparse(fill_value=0)
        sparsedfs[key] = sdf
    pickle.dump(sparsedfs,f)

結果

-rw-r--r--   1 bazel  staff  10292760 Oct 17 14:31 test_fixed_None-9.hdf
-rw-r--r--   1 bazel  staff   9531607 Oct 17 14:31 test_fixed_blosc-9.hdf
-rw-r--r--   1 bazel  staff   7867786 Oct 17 14:31 test_fixed_bzip2-9.hdf
-rw-r--r--   1 bazel  staff   9506483 Oct 17 14:31 test_fixed_lzo-9.hdf
-rw-r--r--   1 bazel  staff   8036845 Oct 17 14:31 test_fixed_zlib-9.hdf
-rw-r--r--   1 bazel  staff  26627915 Oct 17 14:31 test_pickle.pkl
-rw-r--r--   1 bazel  staff   8752370 Oct 17 14:32 test_pickle_gzip.pklz
-rw-r--r--   1 bazel  staff   8407704 Oct 17 14:32 test_pickle_gzip_sparse.pklz
-rw-r--r--   1 bazel  staff  14464924 Oct 17 14:31 test_table_None-9.hdf
-rw-r--r--   1 bazel  staff   8619016 Oct 17 14:31 test_table_blosc-9.hdf
-rw-r--r--   1 bazel  staff   8154716 Oct 17 14:31 test_table_bzip2-9.hdf
-rw-r--r--   1 bazel  staff   8481631 Oct 17 14:31 test_table_lzo-9.hdf
-rw-r--r--   1 bazel  staff   8047125 Oct 17 14:31 test_table_zlib-9.hdf

上記の結果を考えると、最良の「圧縮優先」ソリューションは、bzip2 を使用して HDF 固定形式でデータを保存することのようです。おそらく HDF を使用せずに、さらに多くのスペースを節約できる、データを整理するより良い方法はありますか?

更新 1

以下の Jeff のコメントによると、最初の圧縮なしでテーブル ストア HDF ファイルに ptrepack を使用し、その後再圧縮しました。結果は以下のとおりです。

-rw-r--r--   1 bazel  staff   8627220 Oct 18 08:40 test_table_repack-blocsc-9.hdf
-rw-r--r--   1 bazel  staff   8627620 Oct 18 09:07 test_table_repack-blocsc-blosclz-9.hdf
-rw-r--r--   1 bazel  staff   8409221 Oct 18 08:41 test_table_repack-blocsc-lz4-9.hdf
-rw-r--r--   1 bazel  staff   8104142 Oct 18 08:42 test_table_repack-blocsc-lz4hc-9.hdf
-rw-r--r--   1 bazel  staff  14475444 Oct 18 09:05 test_table_repack-blocsc-snappy-9.hdf
-rw-r--r--   1 bazel  staff   8059586 Oct 18 08:43 test_table_repack-blocsc-zlib-9.hdf
-rw-r--r--   1 bazel  staff   8161985 Oct 18 09:08 test_table_repack-bzip2-9.hdf

奇妙なことに、ptrepack で再圧縮すると、ファイルの合計サイズが増加するようです (少なくともこの場合、同様のコンプレッサーでテーブル形式を使用しています)。

4

0 に答える 0