0

Googleで検索したときに返されるすべてのURLを取得したいと思います。スクリプトを作成してみましたが、Googleはそれが気に入らなかったため、Cookieのサポートとキャプチャを追加するのは面倒でした。Googleの検索ページを閲覧しているときに、ページ上のすべてのURLを取得して.txtファイルに入れるか、何らかの方法で保存するものを探しています。それをする何かを知っている人はいますか?おそらく、greasemonkeyスクリプトまたはfirefoxアドオンですか?よろしくお願いします。ありがとう!

4

4 に答える 4

0

http://irobotsoft.com/bookmark/index.htmlで IRobotSoft ブックマーク アドオンを試すことができます。

于 2011-01-25T15:25:05.700 に答える
0

JSON/Atom カスタム検索 APIを参照してください。

于 2011-01-23T15:44:59.317 に答える
0

Google の検索結果は非常に簡単にスクレイピングできます。これはphpでの例です。

<?
# a trivial example of how to scrape google
$html = file_get_contents("http://www.google.com/search?q=pokemon");

$dom = new DOMDocument();
@$dom->loadHTML($html);
$x = new DOMXPath($dom);
foreach($x->query("//div[@id='ires']//h3//a") as $node)
{
    echo $node->getAttribute("href")."\n";
}
?>
于 2011-01-23T20:41:27.860 に答える
0

私は、利用可能な API がない Google Scholar に対して同様のことを行いました。私のアプローチは、基本的に、ページを取得し、それで何かをしてからユーザーに表示するプロキシ Web サーバー (Tomcat の Java Web アプリ) を作成することでした。これは 100% 機能するソリューションですが、かなりのコーディングが必要です。興味があれば、詳細を調べてコードをいくつか載せることができます。

于 2011-01-23T15:52:40.070 に答える