問題タブ [textsum]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
1 に答える
387 参照

tensorflow - textsum トレーニングが平均損失をまともな値に落とすのにかかるおおよその時間

私は textsum の実装を機能させることに取り組んでおり、最近、自分でスクレイピングしたデータをフィードしました。昨夜、38000 件の記事に対してトレーニングを開始しました。今朝平均損失を見たとき、私は約 5.2000000 でした。textsum おもちゃセットで遊んでいたとき、たとえば約 0.0000054 まですばやく下げることができましたが、これは約 20 の記事に対してのみでした。

もう少し経験のある人が、トレーニングにかかる​​時間についていくつかの期待を提供できることを望んでいました. 現在、これを Nvidia 980M で実行しています。先週、AWS g2.2xlarge インスタンスを試してみたかったのですが、皮肉なことに、私のローカル マシンは Grid 520 よりも高速に処理しているように見えました。P2 インスタンスと Google Cloud をまだテストしたいのですが、今のところ、ローカル マシンで作業するだけだと思います。

私が期待すべきことに関して、誰かがここで提供できるかもしれない情報はありますか? ありがとう!

0 投票する
1 に答える
328 参照

tensorflow - Textsum - ref ファイルと比較して正しくないデコード結果

この問題は、data_convert_example.py を介してバイナリに変換された独自のデータセットに対してトレーニングを実行するときに見られます。1 週間のトレーニングの後、デコード ファイルと ref ファイルを比較しても意味のないデコード結果が得られました。

誰かが成功し、独自のデータを使用して Textsum の readme に投稿されているものと同様の結果を得た場合は、環境、tf ビルド、記事の数など、何がうまくいったかを知りたいです。

現在、0.11 ではうまくいきませんでしたが、0.9 でいくつかの結果が得られましたが、デコード結果は以下に示すものと似ており、どこから来たのかさえわかりません。

現在、Ubuntu 16.04、TF 0.9、CUDA 7.5、および CuDnn 4 を実行しています。TF 0.11 を試しましたが、他の問題に対処していたため、0.9 に戻りました。有効な記事からデコード結果が生成されているように見えますが、参照ファイルとデコード ファイルのインデックスには相関関係がありません。

誰かが助けや方向性を提供できるなら、それは大歓迎です。それ以外の場合は、何かわかりましたら、ここに投稿します。

いくつかの最終的な質問。参照しているvocabファイルについて。単語の頻度でソートする必要はまったくありますか?生成時にこれらの行に沿って何も実行したことがなく、これが何かをスローするかどうかもわかりませんでした.

最後に、データを生成する際に、トレーニング データの記事を小さなバッチに分割する必要があると仮定しました。記事をそれぞれ 100 記事の複数のファイルに分けました。これらは、data-0、data-1 などと名付けられました。また、すべての語彙を 1 つのファイルに保存しましたが、エラーは発生していないようです。

上記の仮定も正しいですか?

以下は、非常に奇妙で、相関関係がないように見えるいくつかの参照とデコードの結果です。

デコード:

参照:

0 投票する
0 に答える
475 参照

tensorflow - TensorFlow サービング用に Textsum をセットアップする方法

tensorflow サービングを使用して textsum のデコード機能をセットアップしようとしていますが、MNIST チュートリアルを介して実行するために完全に必要なものを完全に理解できていません。Tensorflow サービング モデルの設定に関する他のチュートリアルや、textsum に合わせたものに出くわした人はいますか? どんな助けや指示も素晴らしいでしょう。ありがとう!

最後に、ここにある seq2seq_attention.py の「train」でトレーニングされたモデルからデコード機能をエクスポートしようとしています: https://github.com/tensorflow/models/blob/master/textsum/seq2seq_attention.py

以下の 2 つのファイルを比較して、上記の textsum モデルに対して何を実行する必要があるかを理解するとき、「default_graph_signature、入力テンソル、classes_tensor など」で何を割り当てる必要があるかを理解するのに苦労しています。 textsum モデルと一致しない可能性がありますが、これは私が解決しようとしているものであり、テンソルフローのサービスにエクスポートされている他のモデルを見た場合、おそらくもう少し意味があるかもしれません。

比較: https://github.com/tensorflow/tensorflow/blob/r0.11/tensorflow/examples/tutorials/mnist/mnist_softmax.py

https://github.com/tensorflow/serving/blob/master/tensorflow_serving/example/mnist_export.py

- - - - - - - - - 編集 - - - - - - - - - -

以下は私がこれまでに持っているものですが、いくつかの問題があります。サービス提供のために Textsum Eval 機能をセットアップしようとしています。まず、Saver(sharded=True) の割り当てが発生すると、「保存する変数がありません」というエラーが表示されます。それはさておき、テキストサムデコードを介して結果をエクスポートするために、「classification_signature」および「named_graph_signature」変数に何を割り当てる必要があるのか​​ もわかりません。

私がここで欠けているものについての助け...確かにそれは少しです。

0 投票する
1 に答える
164 参照

machine-learning - textsum トレーニングが過剰適合しているかどうかを検出する方法は?

Tensorflow 0.9 を使用し、Textsum モデルでトレーニングしています。スクレイピングした約 130 万の記事があり、約 1 週間、それらに対してトレーニングを行っています。平均損失は約 1.75 ~ 2.1 でした。私の平均損失はトレーニングで得られるものに近いはずだと理解しているので、停止して eval を実行することにしました。評価を実行すると、2.6 から 2.9 の平均損失が見られます。この実行を実行するときに何を期待すべきかを考えていました。

このトレーニング/評価分析を正しく使用していますか? 私は深層学習にやや慣れておらず、これを学習の方法として使用しようとしていますが、他の読書を通じて、これは2つの間で少し大きく広がっているようです.

異なるデータセットに対して評価するための標準的な許容範囲はありますか?また、平均損失の差はどの程度であるべきですか? この時点で、トレーニングを続けるか、ここで停止して、テンソルフロー サービングでこれを実行する方法を理解しようとするかどうかはわかりません。モデルを過度に適合させたくはありませんが、学術的な観点から、トレーニングによって過剰適合したとしましょう。それを「修正」するにはどうすればよいですか?より多くの記事を取得し、トレーニングとしてそのデータをフィードするだけですか、それともモデルが本質的に壊れていて使用できませんか?

0 投票する
1 に答える
271 参照

tensorflow - TEXTSUM の評価ステップに使用するファイルはどれですか?

テキストの要約である tensorflow の texsum モデルに取り組んでいます。github/textsumの readme で指定されたコマンドに従っていました。data フォルダに存在する validation という名前のファイルが eval ステップで使用されるとのことでしたが、 data フォルダに検証ファイルがありませんでした。

自分で作成しようと思ったのですが、後でバイナリファイルにする必要があることに気付きました。そのため、バイナリに変換されるテキスト ファイルを準備する必要がありました。ただし、そのテキスト ファイルには特定の形式が必要です。トレインステップで使用するファイルと同じでしょうか?train ステップと eval ステップで同じファイルを使用できますか? 私が従った一連の手順は次のとおりです。

ステップ 1: おもちゃのデータセットの「更新済み」として言及された vocab ファイルを使用してモデルをトレーニングする

ステップ 2: しばらくトレーニングを続け、running_avg_loss: 3.590769 で「Kill​​ed」になりました

ステップ 3: トレーニングに使用したものと同じデータと語彙ファイルを eval ステップに使用して、eval を実行しました。running_avg_loss が 6 から 7 の間で実行され続けます

同じファイルを使用するかどうか、ステップ 3 には疑問があります。

0 投票する
1 に答える
1779 参照

tensorflow - Tensorflow Serving - servable のバージョンなしベースパスの下にある

現在、テンソルフロー サービングを使用して、トレーニング済みの「textsum」モデルを提供しようとしています。私はTF 0.11を使用しています。これは、いくつか読んだ後、エクスポートされたファイルckptおよびckpt.metaファイルを作成する export_meta_graph を自動的に呼び出すようです。

textsum/log_root ディレクトリの下に、複数のファイルがあります。1 つはmodel.ckpt-230381で、もう1 つは model.ckpt -230381.metaです。

したがって、これは、提供するモデルをセットアップしようとするときにポイントできる場所であると理解しています。以下のコマンドを発行しました。

上記のコマンドを実行すると、次のメッセージが表示されます。

W tensorflow_serving/sources/storage_path/file_system_storage_path_source.cc:204] ベース パス tf_models/textsum/log_root/ の下に、提供可能なモデルのバージョンが見つかりません

チェックポイント ファイルで inspect_checkpoint を実行すると、次のように表示されます。

エクスポートするために必要なことを誤解していませんか? モデルが見つからない理由についてのアイデアはありますか?

0 投票する
1 に答える
116 参照

tensorflow - textsum デコード ファイルの解釈 (入力より出力の方が多い?)

小さなテスト セット (5 つの例) で textsum デコードを実行していますが、参照ファイルとデコード ファイルの両方が既に数千行の長さです。デコードが無期限に実行されるように見える理由はありますか? 同じ一連の例を繰り返し処理していますか? 後の出力は、以前の出力よりも優れているはずですか?

これについての直感が欲しいです。明確な説明を見つけることができませんでした。