問題タブ [huggingface-transformers]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
machine-learning - Perplexity は、Huggingface gpt2 言語モデル コードのどこで計算されますか?
model() 呼び出しの損失の出力が困惑の形であるという github のコメントがいくつか見られます: https://github.com/huggingface/transformers/issues/473
しかし、関連するコードを見ると... https://huggingface.co/transformers/_modules/transformers/modeling_openai.html#OpenAIGPTLMHeadModel.forward
交差エントロピーが計算されているのがわかりますが、困惑への変換はありません。損失は最終的にどこに変換されますか? それとも、私が理解していない変換がすでにそこにありますか?
pytorch - ハグフェイストランスフォーマーパイプラインで要約の比率を定義する方法は?
次のコードを使用して、huggingface-transformer のパイプラインを使用して記事を要約しています。このコードの使用:
要約と元の記事の比率を定義するにはどうすればよいですか? たとえば、元の記事の 20%?
EDIT 1:あなたが提案した解決策を実装しましたが、次のエラーが発生しました。これは私が使用したコードです:
私が得たエラー: