この github リンクhttps://github.com/dennybritz/cnn-text-classification-tfでCNN-Text Classification ベースを使用しましたが、私のデータセットは 10000 ドキュメント (サイズ: 120M) で大きすぎます。
効率的なパフォーマンスのために、評価セットを変更してデータのより小さなサブセットを使用するか、Tensorflow キューまたは tf.data を使用してデータをシーケンシャルに読み取りたいと考えています。今、私はこの問題をどのように解決できるかわかりませんか?このパッケージのwitch .pyプロジェクトを変更する必要がありますか?
ありがとう。