1
import org.jsoup.Jsoup;
import javax.swing.*;
import org.jsoup.helper.Validate;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;

import java.awt.BorderLayout;
import java.awt.GridLayout;
import java.awt.event.ActionEvent;
import java.awt.event.ActionListener;
import java.io.BufferedReader;
import java.io.BufferedWriter;
import java.io.FileWriter;
import java.io.IOException;
import java.io.InputStreamReader;
import java.net.MalformedURLException;
import java.net.URL;
import java.util.Scanner;

import javax.swing.JFrame;
import javax.swing.JPanel;
import javax.swing.JScrollPane;
import javax.swing.JTextArea;
import javax.swing.JTextField;


@SuppressWarnings("unused")
public class SimpleWebCrawler extends JFrame  {

    JTextField yourInputField = new JTextField(20);
    static JTextArea _resultArea = new JTextArea(100, 100);
    JScrollPane scrollingArea = new JScrollPane(_resultArea);
    private final static String newline = "\n";



    public SimpleWebCrawler() throws MalformedURLException {

        String word2 = yourInputField.getText();


        _resultArea.setEditable(false);



        try {
            URL my_url = new URL("http://" + word2 + "/");
            BufferedReader br = new BufferedReader(new InputStreamReader(
                    my_url.openStream()));
            String strTemp = "";
            while (null != (strTemp = br.readLine())) {
                _resultArea.append(strTemp + newline);
            }
        } catch (Exception ex) {
            ex.printStackTrace();
        }

        _resultArea.append("\n");
        _resultArea.append("\n");
        _resultArea.append("\n");


        String url = "http://" + word2 + "/";
        print("Fetching %s...", url);

        try{
        Document doc = Jsoup.connect(url).get();
        Elements links = doc.select("a[href]");


        System.out.println("\n");

        BufferedWriter bw = new BufferedWriter(new FileWriter("C:\\Users\\user\\fypworkspace\\FYP\\Link\\abc.txt"));
        _resultArea.append("\n");
        for (Element link : links) {
            print("  %s  ", link.attr("abs:href"), trim(link.text(), 35));

            bw.write(link.attr("abs:href"));
            bw.write(System.getProperty("line.separator"));
        }
        bw.flush();
        bw.close();
        } catch (IOException e1) {

        }
        JPanel content = new JPanel();
        content.setLayout(new BorderLayout());
        content.add(scrollingArea, BorderLayout.CENTER);
        content.add(yourInputField);



        this.setContentPane(content);
        this.setTitle("Crawled Links");
        this.setDefaultCloseOperation(JFrame.EXIT_ON_CLOSE);

        this.pack();




        }

        private static void print(String msg, Object... args) {

            _resultArea.append(String.format(msg, args) +newline);
        }

        private static String trim(String s, int width) {
            if (s.length() > width)
                return s.substring(0, width - 1) + ".";
            else
                return s;


        }

        //.. Get the content pane, set layout, add to center




    public static void main(String[] args) throws IOException {



        JFrame win = new SimpleWebCrawler();
        win.setVisible(true);



    }
}

こんにちは、これはWebアドレスからリンクを抽出するための私のコードです。ユーザーは目的のURLを入力し、このコードはURLからリンクを抽出します。

このコードは、ECLIPSEIDEコンソールでURLを入力するようにユーザーに促します。入力を入力した後、コードはURLからリンクを抽出し、出力をJTextAreaに転送します。

私が今やりたかったのは、コンソール内の入力のユーザーキーではなく、ユーザー入力を受け取るJtextfieldを作成したいということです。

文字列入力の処理を担当するコード行は次のとおりです。

 URL my_url = new URL("http://" + word2 + "/");
 String url = "http://" + word2 + "/";

しかし、私は説明する違法な引数の例外を受け取ります

protocol = http host = null.

何が足りないのですか?

4

2 に答える 2

0

オブジェクトが構築されると、新しくて新鮮な JTextField が作成されます。ただし、この JTextField はどこにも表示されていないため、ユーザーはデータを入力できません。データを入力できないため、getText() を呼び出すと、新しく作成された JTextField は null を返します。

最善の方法は、フォームに JTextField を表示し、誰かが [開始] をクリックした後にのみ HTTP クロールを実行するか、コンストラクターを変更して、必要な URL のベース ホストである文字列引数を受け入れるようにすることです。ダウンロード。次に、SimpleWebCrawler がすべての作業を行い、フォームを表示する別のクラスを作成できます。

例えば

    public SimpleWebCrawler(String word2) throws MalformedURLException {

    // We don't need this any more
    //String word2 = yourInputField.getText();

    _resultArea.setEditable(false);



    try {
        URL my_url = new URL("http://" + word2 + "/");
        BufferedReader br = new BufferedReader(new InputStreamReader(
                my_url.openStream()));
        String strTemp = "";
        while (null != (strTemp = br.readLine())) {
            _resultArea.append(strTemp + newline);
        }
    } catch (Exception ex) {
        ex.printStackTrace();
    }

    // Rest of your constructor goes here...
于 2011-04-01T15:55:32.420 に答える
0

ここでの問題は、URL を作成しようとするのが早すぎることです。GUIが作成される前であっても。soword2は単なる空の文字列であるため、URL は"http:///"which が無効のように見えます。を追加してJButton、ボタンが押されたときに Web ページからリンクを抽出してみてください。

于 2011-04-01T15:56:07.713 に答える