1

language_modeling の例に従って、run_clm.py を実行して、huggingface ライブラリから gpt-2 を微調整しています。

!python run_clm.py \
    --model_name_or_path gpt2 \
    --train_file train.txt \
    --validation_file test.txt \
    --do_train \
    --do_eval \
    --output_dir /tmp/test-clm

これは出力です。プロセスは開始されたように見えますが、プロセスを停止するように見える^Cがありました。

The following columns in the training set don't have a corresponding argument in `GPT2LMHeadModel.forward` and have been ignored: .
The following columns in the evaluation set don't have a corresponding argument in `GPT2LMHeadModel.forward` and have been ignored: .
***** Running training *****
  Num examples = 2318
  Num Epochs = 3
  Instantaneous batch size per device = 8
  Total train batch size (w. parallel, distributed & accumulation) = 8
  Gradient Accumulation steps = 1
  Total optimization steps = 870
  0% 0/870 [00:00<?, ?it/s]^C

ここに私の環境情報があります:

  • トランスフォーマーのバージョン: 3.4.0
  • プラットフォーム: Linux-4.19.112+-x86_64-with-Ubuntu-18.04-bionic
  • Python バージョン: 3.6.9
  • テンソルフローのバージョン: 1.14
  • スクリプトで GPU を使用しますか?: はい

早期停止のトリガーとして考えられるものは何ですか?

4

0 に答える 0