1

現在、python を使用して、belkasoft や ftk imager などのアプリで作成されたメモリ ダンプを処理しています。通常、拡張子は .mem または .dmp で、次の形式です。

53 FF 00 F0 53 FF 00 

これらのデータを視覚化したいと思います。たとえば、ヒートマップを使用したり、各バイトを視覚化しようとする曲線を使用したりします。2GBのファイルの場合、2147483648バイトになります。この種の大きなファイル >= 2GB の読み取りと処理にどのようにアプローチしますか?

私は次のようなことを試してきました:

with open("File.mem",'rb') as file:
    byte = file.read(1)
    while byte:
         Do something

なんとか計算を行うことができましたが、非常に遅いファイルを1行ずつ読み取ろうとしましたが、これは高速でしたが、各行のバイトを再度読み取り、変換を行うのも非常に遅かったです。numpy loadtxt についても読んだことがありますが、最初にここで質問すると思ってあまり実験しませんでした。

このシナリオに適合し、より効率的になるアイデアはありますか?

どうもありがとう

4

1 に答える 1