2

このミディアムポストに続いて、私は自分のBERT NERを訓練しました:https://medium.com/@yingbiao/ner-with-bert-in-action-936ff275bc73

モデルをディスクに保存し、正常にロードしました。

model = BertForTokenClassification.from_pretrained(bert_out_address, num_labels=len(tag2idx))

model.eval() は動作します:

model.eval()

私はBERTとTransformer libが初めてです。私は似たようなものを期待します

model.predict('Hello I am an example sentence') 

認識されたエンティティが表示されます。

私も試しました:

input_ids = torch.tensor([tokenizer.encode("Here is some text to encode")])
output = model(input_ids)

出力が私に大きなテンソルを与え、それをどうするかわかりません。

このモデルを使用して、例文のエンティティを予測するにはどうすればよいですか? アウトプットはどうすればいいの?

ありがとう!

4

1 に答える 1