9

私は非常に単純な仕事をしたい: 代名詞を含む文字列が与えられたら、それらを解決したい.

たとえば、「Mary has a little lamb. She is cute.」という文を変えたいとします。「メアリーは子羊を飼っている。メアリーはかわいい」.

Stanford CoreNLP を使用しようとしました。ただし、パーサーを起動できないようです。プロジェクトに含まれるすべての jar を Eclipse を使用してインポートし、JVM (-Xmx3g) に 3GB を割り当てました。

エラーは非常に厄介です:

スレッド「メイン」の例外 java.lang.NoSuchMethodError: edu.stanford.nlp.parser.lexparser.LexicalizedParser.loadModel(Ljava/lang/String;[Ljava/lang/String;)Ledu/stanford/nlp/parser/lexparser/ LexicalizedParser;

その L がどこから来たのかわかりません。それが私の問題の根源だと思います...これはかなり奇妙です。ソースファイルの内部に入ろうとしましたが、間違った参照はありません。

コード:

import edu.stanford.nlp.semgraph.SemanticGraphCoreAnnotations.CollapsedCCProcessedDependenciesAnnotation;
import edu.stanford.nlp.dcoref.CorefCoreAnnotations.CorefChainAnnotation;
import edu.stanford.nlp.dcoref.CorefCoreAnnotations.CorefGraphAnnotation;
import edu.stanford.nlp.ling.CoreAnnotations.NamedEntityTagAnnotation;
import edu.stanford.nlp.ling.CoreAnnotations.PartOfSpeechAnnotation;
import edu.stanford.nlp.ling.CoreAnnotations.SentencesAnnotation;
import edu.stanford.nlp.ling.CoreAnnotations.TextAnnotation;
import edu.stanford.nlp.ling.CoreAnnotations.TokensAnnotation;
import edu.stanford.nlp.trees.TreeCoreAnnotations.TreeAnnotation;
import edu.stanford.nlp.ling.CoreLabel;
import edu.stanford.nlp.dcoref.CorefChain;
import edu.stanford.nlp.pipeline.*;
import edu.stanford.nlp.trees.Tree;
import edu.stanford.nlp.semgraph.SemanticGraph;
import edu.stanford.nlp.util.CoreMap;
import edu.stanford.nlp.util.IntTuple;
import edu.stanford.nlp.util.Pair;
import edu.stanford.nlp.util.Timing;
import java.io.File;
import java.io.FileInputStream;
import java.io.IOException;
import java.util.ArrayList;
import java.util.List;
import java.util.Map;

import java.util.Properties;

public class Coref {

/**
 * @param args the command line arguments
 */
public static void main(String[] args) throws IOException, ClassNotFoundException {
    // creates a StanfordCoreNLP object, with POS tagging, lemmatization, NER, parsing, and coreference resolution 
    Properties props = new Properties();
    props.put("annotators", "tokenize, ssplit, pos, lemma, ner, parse, dcoref");
    StanfordCoreNLP pipeline = new StanfordCoreNLP(props);

    // read some text in the text variable
    String text = "Mary has a little lamb. She is very cute."; // Add your text here!

    // create an empty Annotation just with the given text
    Annotation document = new Annotation(text);

    // run all Annotators on this text
    pipeline.annotate(document);

    // these are all the sentences in this document
    // a CoreMap is essentially a Map that uses class objects as keys and has values with custom types
    List<CoreMap> sentences = document.get(SentencesAnnotation.class);

    for(CoreMap sentence: sentences) {
      // traversing the words in the current sentence
      // a CoreLabel is a CoreMap with additional token-specific methods
      for (CoreLabel token: sentence.get(TokensAnnotation.class)) {
        // this is the text of the token
        String word = token.get(TextAnnotation.class);
        // this is the POS tag of the token
        String pos = token.get(PartOfSpeechAnnotation.class);
        // this is the NER label of the token
        String ne = token.get(NamedEntityTagAnnotation.class);       
      }

      // this is the parse tree of the current sentence
      Tree tree = sentence.get(TreeAnnotation.class);
      System.out.println(tree);

      // this is the Stanford dependency graph of the current sentence
      SemanticGraph dependencies = sentence.get(CollapsedCCProcessedDependenciesAnnotation.class);
    }

    // This is the coreference link graph
    // Each chain stores a set of mentions that link to each other,
    // along with a method for getting the most representative mention
    // Both sentence and token offsets start at 1!
    Map<Integer, CorefChain> graph = 
      document.get(CorefChainAnnotation.class);
    System.out.println(graph);
  }
}

完全なスタック トレース:

アノテーター トークン化の追加 アノテーター ssplit の追加 アノテーター pos の追加 Loading POS Model [edu/stanford/nlp/models/pos-tagger/english-left3words/english-left3words-distim.tagger] ... Loading default properties from training tagger edu/stanford/ nlp/models/pos-tagger/english-left3words/english-left3words-distim.tagger edu/stanford/nlp/models/pos-tagger/english-left3words/english-left3words-distim.tagger から POS タガー モデルを読み取る ... [2.1秒]。[2.2秒]。annotator lemma の追加 annotator ner の追加 edu/stanford/nlp/models/ner/english.all.3class.distim.crf.ser.gz から分類子を読み込んでいます ... 完了 [4.0 秒]。edu/stanford/nlp/models/ner/english.muc.distim.crf.ser.gz から分類器をロードしています ... 完了 [3.0 秒]。edu/stanford/nlp/models/ner/english.conll.distim.crf.ser.gz から分類子を読み込んでいます ... 完了 [3.3 秒]。スレッド「メイン」にアノテーター解析例外を追加する/lexparser/LexicalizedParser; edu.stanford.nlp.pipeline.ParserAnnotator.loadModel(ParserAnnotator.java:115) で edu.stanford.nlp.pipeline.ParserAnnotator.(ParserAnnotator.java:64) で edu.stanford.nlp.pipeline.StanfordCoreNLP$12.create (StanfordCoreNLP.java:603) at edu.stanford.nlp.pipeline.StanfordCoreNLP$12.create(StanfordCoreNLP.java:585) at edu.stanford.nlp.pipeline.AnnotatorPool.get(AnnotatorPool.java:62) at edu.stanford .nlp.pipeline.StanfordCoreNLP.construct(StanfordCoreNLP.java:329) at edu.stanford.nlp.pipeline.StanfordCoreNLP.(S​​tanfordCoreNLP.java:196) at edu.stanford.nlp.

4

1 に答える 1

9

はい、L は、Java 1.0 以来ずっと奇妙な Sun のものです。

LexicalizedParser.loadModel(String, String ...)パーサーに追加された新しいメソッドですが、見つかりません。これは、代わりに使用されている別のバージョンのパーサーがクラスパスにあることを意味していると思われます。

これを試してください: IDE の外部のシェルで、これらのコマンドを実行します (適切に stanford-corenlp へのパスを指定し、Windows の場合は : を ; に変更します:

javac -cp ".:stanford-corenlp-2012-04-09/*" Coref.java
java -mx3g -cp ".:stanford-corenlp-2012-04-09/*" Coref

パーサーが読み込まれ、コードが正しく実行されます。何をしたかを確認できるように、いくつかの print ステートメントを追加するだけです :-)。

于 2012-05-23T18:56:07.057 に答える