免責事項: 私はニューラル ネットワークと Tensorflow を初めて使用します。
ユーザーが質問をすると、アプリケーションが答えを返す QA アプリケーションを作成しようとしています。私が試した従来の方法のほとんどは、うまくいかなかったり、精度が不十分だったり、手作業が必要だったりしました。教師なし QA アプリケーションについて調べていたときにBERTに出会いました。
Google が主張するBERTは最先端のニューラル ネットワーク モデルであり、Squad 2.0 のリーダー ボードで最高のスコアを達成しました。このモデルをアプリケーションに使用して、そのパフォーマンスをテストしたいと考えています。
Compute Engineで Windows 2012 Datacenter エディションの仮想マシンを作成しました。ctpuを使用して Cloud TPU を作成しました。
Cloud Storage にBERT の大規模なケースなしモデルがあります。
SQUAD 2.0を使用して BERT の大規模な非ケース モデルをトレーニングするにはどうすればよいですか?
Cloud TPU は CPU や GPU のような単なるデバイスであることは理解しています。ただし、これを読むと、Cloud TPU は仮想マシンであると説明されています (「Cloud TPU では、BERT-Large を次のように実行できます...」)。
hereに記載されているように、run_squad.pyをどこで実行しますか?
python run_squad.py \
--vocab_file=$BERT_LARGE_DIR/vocab.txt \
--bert_config_file=$BERT_LARGE_DIR/bert_config.json \
--init_checkpoint=$BERT_LARGE_DIR/bert_model.ckpt \
--do_train=True \
--train_file=$SQUAD_DIR/train-v2.0.json \
--do_predict=True \
--predict_file=$SQUAD_DIR/dev-v2.0.json \
--train_batch_size=24 \
--learning_rate=3e-5 \
--num_train_epochs=2.0 \
--max_seq_length=384 \
--doc_stride=128 \
--output_dir=gs://some_bucket/squad_large/ \
--use_tpu=True \
--tpu_name=$TPU_NAME \
--version_2_with_negative=True
この引数の仮想マシンからストレージ バケット ファイルにアクセスする方法を教えてくださいvocab_file
。
外部 IP アドレスは$TPU_NAME
環境変数の値ですか?