問題タブ [huggingface-transformers]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
2 に答える
3570 参照

machine-learning - Perplexity は、Huggingface gpt2 言語モデル コードのどこで計算されますか?

model() 呼び出しの損失の出力が困惑の形であるという github のコメントがいくつか見られます: https://github.com/huggingface/transformers/issues/473

しかし、関連するコードを見ると... https://huggingface.co/transformers/_modules/transformers/modeling_openai.html#OpenAIGPTLMHeadModel.forward

交差エントロピーが計算されているのがわかりますが、困惑への変換はありません。損失は​​最終的にどこに変換されますか? それとも、私が理解していない変換がすでにそこにありますか?

0 投票する
1 に答える
1030 参照

pytorch - ハグフェイストランスフォーマーパイプラインで要約の比率を定義する方法は?

次のコードを使用して、huggingface-transformer のパイプラインを使用して記事を要約しています。このコードの使用:

要約と元の記事の比率を定義するにはどうすればよいですか? たとえば、元の記事の 20%?

EDIT 1:あなたが提案した解決策を実装しましたが、次のエラーが発生しました。これは私が使用したコードです:

私が得たエラー: