0

私はウェブページをクロールしており、クロールした後、そのウェブページからすべてのリンクを抽出し、以下のコードを使用して Apache Tika と BoilerPipe を使用してすべての URL を解析しようとしています。このような。そして、HTMLParser.java でいくつかのエラーが表示されます: 行番号 102。これは、HTMLParser.java の行番号 102 です。

String parsedText = tika.parseToString(htmlStream, md);

HTMLParse コードも提供しました。

org.apache.tika.exception.TikaException: TIKA-198: Illegal IOException from org.apache.tika.parser.microsoft.ooxml.OOXMLParser@67c28a6a
        at org.apache.tika.parser.CompositeParser.parse(CompositeParser.java:203)
        at org.apache.tika.parser.CompositeParser.parse(CompositeParser.java:197)
        at org.apache.tika.parser.AutoDetectParser.parse(AutoDetectParser.java:135)
        at org.apache.tika.Tika.parseToString(Tika.java:357)
        at edu.uci.ics.crawler4j.crawler.HTMLParser.parse(HTMLParser.java:102)
        at edu.uci.ics.crawler4j.crawler.WebCrawler.handleHtml(WebCrawler.java:227)
        at edu.uci.ics.crawler4j.crawler.WebCrawler.processPage(WebCrawler.java:299)
        at edu.uci.ics.crawler4j.crawler.WebCrawler.run(WebCrawler.java:118)
        at java.lang.Thread.run(Unknown Source)
Caused by: java.util.zip.ZipException: invalid block type
        at java.util.zip.InflaterInputStream.read(Unknown Source)
        at java.util.zip.ZipInputStream.read(Unknown Source)
        at java.io.FilterInputStream.read(Unknown Source)
        at org.apache.poi.openxml4j.util.ZipInputStreamZipEntrySource$FakeZipEntry.<init>(ZipInputStreamZipEntrySource.java:114)
        at org.apache.poi.openxml4j.util.ZipInputStreamZipEntrySource.<init>(ZipInputStreamZipEntrySource.java:55)
        at org.apache.poi.openxml4j.opc.ZipPackage.<init>(ZipPackage.java:82)
        at org.apache.poi.openxml4j.opc.OPCPackage.open(OPCPackage.java:220)
        at org.apache.poi.extractor.ExtractorFactory.createExtractor(ExtractorFactory.java:152)
        at org.apache.tika.parser.microsoft.ooxml.OOXMLExtractorFactory.parse(OOXMLExtractorFactory.java:65)
        at org.apache.tika.parser.microsoft.ooxml.OOXMLParser.parse(OOXMLParser.java:67)
        at org.apache.tika.parser.CompositeParser.parse(CompositeParser.java:197)
        ... 8 more

これは私の HTMLParser.java ファイルです。

    public void parse(String htmlContent, String contextURL) {

        InputStream htmlStream = null;
        text = null;
        title = null;
        metaData = new HashMap<String, String>();

        urls = new HashSet<String>();
        char[] chars = htmlContent.toCharArray();

        bulletParser.setCallback(textExtractor);
        bulletParser.parse(chars);

        try {
            text = articleExtractor.getText(htmlContent);
        } catch (BoilerpipeProcessingException e) {
            e.printStackTrace();
        }

        if (text == null){
            text = textExtractor.text.toString().trim(); 
        }

        title = textExtractor.title.toString().trim();
        try {
            Metadata md = new Metadata();
            String utfHtmlContent = new String(htmlContent.getBytes(),"UTF-8");
            htmlStream = new ByteArrayInputStream(utfHtmlContent.getBytes());
    //The below line is at the line number 102 according to error above
                String parsedText = tika.parseToString(htmlStream, md);
                //very unlikely to happen
                if (text == null){
                    text = parsedText.trim();
                }
                processMetaData(md);
            } catch (Exception e) {
                e.printStackTrace();
            } finally {
                IOUtils.closeQuietly(htmlStream);
            }
            bulletParser.setCallback(linkExtractor);
            bulletParser.parse(chars);
            Iterator<String> it = linkExtractor.urls.iterator();

            String baseURL = linkExtractor.base();
            if (baseURL != null) {
                contextURL = baseURL;
            }

            int urlCount = 0;
            while

 (it.hasNext()) {
            String href = it.next();
            href = href.trim();
            if (href.length() == 0) {
                continue;
            }
            String hrefWithoutProtocol = href.toLowerCase();
            if (href.startsWith("http://")) {
                hrefWithoutProtocol = href.substring(7);
            }
            if (hrefWithoutProtocol.indexOf("javascript:") < 0
                    && hrefWithoutProtocol.indexOf("@") < 0) {
                URL url = URLCanonicalizer.getCanonicalURL(href, contextURL);
                if (url != null) {
                    urls.add(url.toExternalForm());
                    urlCount++;
                    if (urlCount > MAX_OUT_LINKS) {
                        break;
                    }   
                }               
            }
        }
    }

任意の提案をいただければ幸いです。

4

2 に答える 2

1

私は同じ問題を抱えていました.解析しようとしていたドキュメント(docx)ファイルは実際には単純なドキュメントではないことがわかりました.Microsoft Wordで開発されたフォームであり、ラベルテキストの横にテキストと入力フィールドがあります.

そのようなファイルをフォルダーから削除し、残りのすべてのファイルを Solr エンジンに投稿して、解析とインデックス作成を行いました。

于 2016-09-13T16:22:18.187 に答える
1

不正な OOXML ドキュメント (.docx、.xlsx など) のようです。最新の Tika バージョンでも問題が発生するかどうかを確認するには、tika-app jar をダウンロードして、次のように実行します。

java -jar tika-app-1.0.jar --text http://url.of.the/troublesome/document.docx

これにより、ドキュメントに含まれるテキストが出力されます。うまくいかない場合は、問題のあるドキュメントの URL を記載したバグ レポートを提出してください (ドキュメントが公開されていない場合はドキュメントを添付してください)。

于 2011-11-30T08:45:18.553 に答える