2

huggingface の GPT-2 PyTorch モデルを微調整しようとしています。
https://github.com/huggingface/pytorch-transformers/tree/master

RocStories データセットで古い GPT モデルをトレーニングする例を示しているドキュメントの「例」セクションを読みました。
https://huggingface.co/pytorch-transformers/examples.html#fine-tuning

GPT-2 でこの種のトレーニングを実行する方法を知りたいです。また、私のデータセットには「評価セット」がありません。データセットでGPT-2を微調整し、それを使用して、微調整されたデータセットに「類似」する新しいテキストを生成したいだけです。

ドキュメントのどこかに何かが欠けていると確信しています。誰かが私を正しい方向に向けることができれば幸いです。

4

0 に答える 0