language_modeling の例に従って、run_clm.py を実行して、huggingface ライブラリから gpt-2 を微調整しています。
!python run_clm.py \
--model_name_or_path gpt2 \
--train_file train.txt \
--validation_file test.txt \
--do_train \
--do_eval \
--output_dir /tmp/test-clm
これは出力です。プロセスは開始されたように見えますが、プロセスを停止するように見える^Cがありました。
The following columns in the training set don't have a corresponding argument in `GPT2LMHeadModel.forward` and have been ignored: .
The following columns in the evaluation set don't have a corresponding argument in `GPT2LMHeadModel.forward` and have been ignored: .
***** Running training *****
Num examples = 2318
Num Epochs = 3
Instantaneous batch size per device = 8
Total train batch size (w. parallel, distributed & accumulation) = 8
Gradient Accumulation steps = 1
Total optimization steps = 870
0% 0/870 [00:00<?, ?it/s]^C
ここに私の環境情報があります:
- トランスフォーマーのバージョン: 3.4.0
- プラットフォーム: Linux-4.19.112+-x86_64-with-Ubuntu-18.04-bionic
- Python バージョン: 3.6.9
- テンソルフローのバージョン: 1.14
- スクリプトで GPU を使用しますか?: はい
早期停止のトリガーとして考えられるものは何ですか?