現在、python を使用して、belkasoft や ftk imager などのアプリで作成されたメモリ ダンプを処理しています。通常、拡張子は .mem または .dmp で、次の形式です。
53 FF 00 F0 53 FF 00
これらのデータを視覚化したいと思います。たとえば、ヒートマップを使用したり、各バイトを視覚化しようとする曲線を使用したりします。2GBのファイルの場合、2147483648バイトになります。この種の大きなファイル >= 2GB の読み取りと処理にどのようにアプローチしますか?
私は次のようなことを試してきました:
with open("File.mem",'rb') as file:
byte = file.read(1)
while byte:
Do something
なんとか計算を行うことができましたが、非常に遅いファイルを1行ずつ読み取ろうとしましたが、これは高速でしたが、各行のバイトを再度読み取り、変換を行うのも非常に遅かったです。numpy loadtxt についても読んだことがありますが、最初にここで質問すると思ってあまり実験しませんでした。
このシナリオに適合し、より効率的になるアイデアはありますか?
どうもありがとう