ファイルを含むデータセットが.train
あり、その非常に大きなファイルは100MBファイルです。NERで組織名を抽出したい。OpenNLP を使用してトレーニングを行いました。
サンプルコード:
TokenNameFinderModel model=NameFinderME.train("en","organization",
sampleStream,Collections.<String, Object>emptyMap());
しかし、エラーが発生します: ArrayIndexOutofBoundException
。
NER に openNLP を使用して大規模なデータセットをトレーニングする方法はありますか? サンプルコードを投稿できますか?
Google で検索したところ、Class GIS と DataIndexer インターフェイスを使用して大規模なデータ セットをトレーニングできることがわかりましたが、その方法を知っていますか? サンプルコードを投稿できますか?