問題タブ [gpt-2]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
1 に答える
827 参照

pytorch - HuggingFace - config.json での GPT2 Tokenizer 構成

GPT2 微調整モデルは、推論用のhuggingface-modelsにアップロードされます

推論中に以下のエラーが観察され、

from_pretrained を使用してトークナイザーを読み込めません。その構成を更新してください: 'bala1802/model_1_test' のトークナイザーを読み込めません。- 「bala1802/model_1_test」は「https://huggingface.co/models」にリストされている正しいモデル識別子です - または「bala1802/model_1_test」は、関連するトークナイザー ファイルを含むディレクトリへの正しいパスです

以下は構成です - Finetuned huggingface モデルの config.json ファイル、

"model_type": "gpt2"config.json ファイルのように GPT2 Tokenizer を構成する必要がありますか?

0 投票する
2 に答える
949 参照

nlp - BERT/GPT-2 を使用して言い換え生成を行うにはどうすればよいですか

BERT/GPT-2 を使用して言い換え生成を行う方法を理解しようと懸命に努力しています。作り方が理解できません。言い換え生成モデルを作成できるリソースを教えてください。 「入力は文であり、出力は文の言い換えになります」