私のデータセットは、5 ~ 180 秒のオーディオ セグメントで構成されています。例の数は、ディスクから何度も読み取るのではなく、メモリにキャッシュするのに十分な数です。データを定数テンソル/変数に格納して使用tf.train.slice_input_producer
すると、データセットをメモリにキャッシュできますが、すべてのデータを 1 つの行列に格納する必要があります。一部の例は他の例よりもはるかに長いため、この行列は不必要に大きくなり、RAM に対して大きすぎる可能性があります。
私は単純に自分のデータの numpy 配列のリストを取得し、入力全体の読み取り-ランダム化-前処理を を使用して tensorflow 以外のfeed_dict
方法で行うことができますが、テンソルフローを完全にあきらめずにそれを行う方法があるかどうか疑問に思います入力読み取り-ランダム化-前処理部分。
ありがとう!