huggingface の GPT-2 PyTorch モデルを微調整しようとしています。
https://github.com/huggingface/pytorch-transformers/tree/master
RocStories データセットで古い GPT モデルをトレーニングする例を示しているドキュメントの「例」セクションを読みました。
https://huggingface.co/pytorch-transformers/examples.html#fine-tuning
GPT-2 でこの種のトレーニングを実行する方法を知りたいです。また、私のデータセットには「評価セット」がありません。データセットでGPT-2を微調整し、それを使用して、微調整されたデータセットに「類似」する新しいテキストを生成したいだけです。
ドキュメントのどこかに何かが欠けていると確信しています。誰かが私を正しい方向に向けることができれば幸いです。