問題タブ [huggingface-tokenizers]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - Hugging face(pytorch トランスフォーマー) の GPT2 RuntimeError: grad はスカラー出力に対してのみ暗黙的に作成できます
私のカスタムデータセットでgpt2を微調整しようとしています。ハグフェイス トランスフォーマーのドキュメントを使用して、基本的な例を作成しました。上記のエラーが表示されます。私はそれが何を意味するか知っています: (基本的に、非スカラーテンソルで逆方向に呼び出しています) しかし、私はほとんど API 呼び出しのみを使用しているため、この問題を修正する方法がわかりません。助言がありますか?
pytorch - BERT ゼロ層固定単語埋め込み
次元が 128 であることを理解している、bert ゼロ層ベクトル (入力ベクトル) を使用して実験を行いたいと考えています。
トークンとそのベクトルを含むファイルを入手できる場所が見つかりません。 そのようなことはありますか?Glove/word2vec 形式のファイルがありますが、BERT の入力ベクトルのファイルはありますか?
これについて何か助けていただければ幸いです!! ありがとう、