ドキュメントに10000語以上の長いテキスト分類タスクを実行しています。Bertを段落エンコーダとして使用し、段落の埋め込みをBiLSTMに段階的にフィードする予定です。ネットワークは以下の通りです。
入力: (batch_size, max_paragraph_len, max_tokens_per_para,embedding_size)
バート層: (max_paragraph_len,paragraph_embedding_size)
lstm レイヤー: ???
出力層: (batch_size,classification_size)
ケラスでそれを実装する方法は? 私はケラスの load_trained_model_from_checkpoint を使用してバートモデルをロードしています
bert_model = load_trained_model_from_checkpoint(
config_path,
model_path,
training=False,
use_adapter=True,
trainable=['Encoder-{}-MultiHeadSelfAttention-Adapter'.format(i + 1) for i in range(layer_num)] +
['Encoder-{}-FeedForward-Adapter'.format(i + 1) for i in range(layer_num)] +
['Encoder-{}-MultiHeadSelfAttention-Norm'.format(i + 1) for i in range(layer_num)] +
['Encoder-{}-FeedForward-Norm'.format(i + 1) for i in range(layer_num)],
)