...または性別情報で十分ですか?具体的には、StanfordCoreNLPによって読み込まれるモデルの数を減らして共参照を抽出できるかどうかを知りたいと思っています。私は実際の固有表現抽出には興味がありません。
ありがとうございました
...または性別情報で十分ですか?具体的には、StanfordCoreNLPによって読み込まれるモデルの数を減らして共参照を抽出できるかどうかを知りたいと思っています。私は実際の固有表現抽出には興味がありません。
ありがとうございました
Stanford CoreNLPにパッケージ化されたcorefシステムについて説明しているEMNLPの論文によると、名前付きエンティティタグは、次のcorefアノテーションパスで使用されています:正確な構成、リラックスしたヘッドマッチング、および代名詞 (Raghunathan et al.2010)。
dcoref.sievePasses構成プロパティで使用するパスを指定できます。共参照は必要だがNERを実行したくない場合は、NERなしでパイプラインを実行し、corefシステムがNERラベルを必要としないアノテーションパスのみを使用するように指定できるはずです。
ただし、結果のcorefアノテーションはリコールに影響します。したがって、いくつかの実験を行って、ダウンストリームで使用している注釈の品質の低下が問題であるかどうかを判断することをお勧めします。
一般的に、はい。まず、名前付きエンティティが必要です。これは、それらが候補の先行詞、または代名詞が参照するターゲットとして機能するためです。多くの(ほとんど?)システムは、エンティティ認識とタイプ分類の両方を1つのステップで実行します。次に、エンティティのセマンティックカテゴリ(人、組織、場所など)は、正確な共参照チェーンを構築するために重要です。