0

再ランキング タスクに XLM-Roberta モデルを使用しようとしています。ただし、英語の単一言語タスクの場合、BERT は評価中に収束し、最高のスコアを返しました。しかし、それを XLM-Roberta モデルに置き換えても収束しませんでした。また、bert tokenizer が 3 つのキー (input_ids、token_type_ids、attention_masks) を持つ dict を返すこともわかりました。ただし、XLM-Roberta は 2 つのキー (input_ids と Attention_masks) を持つ dict のみを返します。入力テキストのペアを XLM-Roberta モデルに分離する方法はありますか? そして、それがモデルが収束しない理由になるのでしょうか?

4

0 に答える 0