1

この github リンクhttps://github.com/dennybritz/cnn-text-classification-tfでCNN-Text Classification ベースを使用しましたが、私のデータセットは 10000 ドキュメント (サイズ: 120M) で大きすぎます。

効率的なパフォーマンスのために、評価セットを変更してデータのより小さなサブセットを使用するか、Tensorflow キューまたは tf.data を使用してデータをシーケンシャルに読み取りたいと考えています。今、私はこの問題をどのように解決できるかわかりませんか?このパッケージのwitch .pyプロジェクトを変更する必要がありますか?

ありがとう。

4

0 に答える 0