この問題は、data_convert_example.py を介してバイナリに変換された独自のデータセットに対してトレーニングを実行するときに見られます。1 週間のトレーニングの後、デコード ファイルと ref ファイルを比較しても意味のないデコード結果が得られました。
誰かが成功し、独自のデータを使用して Textsum の readme に投稿されているものと同様の結果を得た場合は、環境、tf ビルド、記事の数など、何がうまくいったかを知りたいです。
現在、0.11 ではうまくいきませんでしたが、0.9 でいくつかの結果が得られましたが、デコード結果は以下に示すものと似ており、どこから来たのかさえわかりません。
現在、Ubuntu 16.04、TF 0.9、CUDA 7.5、および CuDnn 4 を実行しています。TF 0.11 を試しましたが、他の問題に対処していたため、0.9 に戻りました。有効な記事からデコード結果が生成されているように見えますが、参照ファイルとデコード ファイルのインデックスには相関関係がありません。
誰かが助けや方向性を提供できるなら、それは大歓迎です。それ以外の場合は、何かわかりましたら、ここに投稿します。
いくつかの最終的な質問。参照しているvocabファイルについて。単語の頻度でソートする必要はまったくありますか?生成時にこれらの行に沿って何も実行したことがなく、これが何かをスローするかどうかもわかりませんでした.
最後に、データを生成する際に、トレーニング データの記事を小さなバッチに分割する必要があると仮定しました。記事をそれぞれ 100 記事の複数のファイルに分けました。これらは、data-0、data-1 などと名付けられました。また、すべての語彙を 1 つのファイルに保存しましたが、エラーは発生していないようです。
上記の仮定も正しいですか?
以下は、非常に奇妙で、相関関係がないように見えるいくつかの参照とデコードの結果です。
デコード:
output=Wild Boy Goes About How I Can't Be Really Go For Love
output=State Department defends the campaign of Iran
output=John Deere sails profit - Business Insider
output=to roll for the Perseid meteor shower
output=Man in New York City in Germany
参照:
output=Battle Chasers: Nightwar Combines Joe Mad's Stellar Art With Solid RPG Gameplay
output=Obama Meets a Goal That Could Literally Destroy America
output=WOW! 10 stunning photos of presidents daughter Zahra Buhari
output=Koko the gorilla jams out on bass with Flea from Red Hot Chili Peppers
output=Brenham police officer refused service at McDonald's