このミディアムポストに続いて、私は自分のBERT NERを訓練しました:https://medium.com/@yingbiao/ner-with-bert-in-action-936ff275bc73
モデルをディスクに保存し、正常にロードしました。
model = BertForTokenClassification.from_pretrained(bert_out_address, num_labels=len(tag2idx))
model.eval() は動作します:
model.eval()
私はBERTとTransformer libが初めてです。私は似たようなものを期待します
model.predict('Hello I am an example sentence')
認識されたエンティティが表示されます。
私も試しました:
input_ids = torch.tensor([tokenizer.encode("Here is some text to encode")])
output = model(input_ids)
出力が私に大きなテンソルを与え、それをどうするかわかりません。
このモデルを使用して、例文のエンティティを予測するにはどうすればよいですか? アウトプットはどうすればいいの?
ありがとう!