すべての巨大なデータをhdf5の単一のデータセットにまとめる必要があります。さて、あなたが試してみると、問題は次のとおりです。
>> hdf5write('hd', '/dataset1', [1;2;3])
>> hdf5write('hd', '/dataset1', [4;5;6], 'WriteMode', 'append')
??? Error using ==> hdf5writec
writeH5Dset: Dataset names must be unique when appending data.
ご覧のとおり、同じデータセットにデータを追加しようとすると、hdf5writeは文句を言います。私は周りを見回して、考えられる回避策の1つは、最初にデータセットからデータを取得してから、MATLAB環境でデータを連結することです。もちろん、これは小さなデータでは問題になりません。この場合、ギガバイトのデータについて話しているので、Matlabはメモリから大声で叫び始めます。
このため、この場合に利用できるオプションは何ですか?
注:matlabバージョンにはh5write関数はありません。