このリポジトリの結果を再現しようとしています:
https://github.com/huggingface/transfer-learning-conv-ai
そのために、ドッカーに基づいていない基本的な例に従っています。
git clone https://github.com/huggingface/transfer-learning-conv-ai
cd transfer-learning-conv-ai
pip install -r requirements.txt
python -m spacy download en
それから私は試します:
python3 interact.py --model models/
そして、次のエラーが表示されます。
np_resource = np.dtype([("resource", np.ubyte, 1)])
usage: interact.py [-h] [--dataset_path DATASET_PATH]
[--dataset_cache DATASET_CACHE] [--model {openai-gpt,gpt2}]
[--model_checkpoint MODEL_CHECKPOINT]
[--max_history MAX_HISTORY] [--device DEVICE] [--no_sample]
[--max_length MAX_LENGTH] [--min_length MIN_LENGTH]
[--seed SEED] [--temperature TEMPERATURE] [--top_k TOP_K]
[--top_p TOP_P]
interact.py: error: argument --model: invalid choice: 'models/' (choose from 'openai-gpt', 'gpt2')
最初に気付いたのは、「モデル」ディレクトリがなかったため、作成して再試行したところ、同じエラーが発生したことです。
私が試した2番目のことは、指定されたレポのようにモデルをダウンロードすることでした:
We make a pretrained and fine-tuned model available on our S3 here
私が試したそのリンクから:
wget https://s3.amazonaws.com/models.huggingface.co/transfer-learning-chatbot/finetuned_chatbot_gpt.tar.gz
メインディレクトリとモデルディレクトリの両方でファイルを解凍し、再試行してください。
3回目の試行で、同じエラーが発生しました。
これは私の作業ディレクトリの現在の構造です:
Dockerfile config.json interact.py pytorch_model.bin train.py
LICENCE convai_evaluation.py merges.txt requirements.txt utils.py
README.md example_entry.py model_training_args.bin special_tokens.txt vocab.json
__pycache__ finetuned_chatbot_gpt.tar.gz models test_special_tokens.py
編集
キンボの提案を試しました:
python3 interact.py --model gpt2
私は今、このエラーが発生します:
File "interact.py", line 154, in <module>
run()
File "interact.py", line 114, in run
raise ValueError("Interacting with GPT2 requires passing a finetuned model_checkpoint")
ValueError: Interacting with GPT2 requires passing a finetuned model_checkpoint
また、実行してみました:
python3 interact.py
そのため、エラーは発生していません。この時点でスタックしているようです:
INFO:/home/lramirez/transfer-learning-conv-ai/utils.py:Download dataset from https://s3.amazonaws.com/datasets.huggingface.co/personachat/personachat_self_original.json
INFO:/home/lramirez/transfer-learning-conv-ai/utils.py:Tokenize and encode the dataset
私は約30分間そこにいました