4

バイナリ データとギガワード データの両方を使用して textsum をテストし、モデルをトレーニングしてテストしました。ビーム検索デコーダーは、データとモデルの両方のセットですべての「UNK」結果を提供します。デフォルトのパラメータ設定を使用していました。

最初に、data.py と batch_reader.py のデータ インターフェイスを変更して、ギガワード データセットから記事と要約を読み取って解析しました。約 170 万のドキュメントで 90,000 を超えるミニバッチでモデルをトレーニングしました。次に、別のテスト セットでモデルをテストしましたが、すべての結果が返されました。 ギガワードでトレーニングされたモデルからのデコーダーの結果

次に、textsum コードに付属するバイナリ データを使用して、1,000 個未満のミニバッチで小さなモデルをトレーニングしました。同じバイナリデータでテストしました。いくつかの「for」と「.」を除いて、すべての結果がデコード ファイルに表示されます。 バイナリ データ でトレーニングされたモデルからのデコーダーの結果 トレーニングの損失に関するテンソルボードも表示し、トレーニングが収束したことを示しています。

トレーニングとテストでは、デフォルト設定を変更しませんでした。私と同じことを試して、同じ問題を見つけた人はいますか?

4

1 に答える 1