問題タブ [perplexity]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
machine-learning - Perplexity は、Huggingface gpt2 言語モデル コードのどこで計算されますか?
model() 呼び出しの損失の出力が困惑の形であるという github のコメントがいくつか見られます: https://github.com/huggingface/transformers/issues/473
しかし、関連するコードを見ると... https://huggingface.co/transformers/_modules/transformers/modeling_openai.html#OpenAIGPTLMHeadModel.forward
交差エントロピーが計算されているのがわかりますが、困惑への変換はありません。損失は最終的にどこに変換されますか? それとも、私が理解していない変換がすでにそこにありますか?
machine-learning - Gensim による潜在的ディリクレ割り当ての実装
私はLDAトピックモデリングに関するプロジェクトを行っています.gensim(python)を使用してそれを行いました。いくつかの参考文献を読んだところ、最良のモデル トピックを取得するには、パス数とトピック数の 2 つのパラメーターを決定する必要があると書かれていました。本当?パスの数については、どの時点でパスが安定しているかがわかります。トピックの数については、どのトピックの値が最も低いかがわかります。
また、gensim ライブラリのすべてのパラメータを使用する必要がありますか?