重複の可能性:
bash でランダムなサイト名を取得する
私は、ウェブ上で単語の出現箇所を見つけなければならない大学向けのプログラムを作成しています。サイトを見つけて使用された単語の数を数え、それらを記録して使用回数でソートするアルゴリズムを作成する必要があります。したがって、私のプログラムがチェックするサイトが多いほど、より良い結果が得られます。まず、ランダムな IP を計算することを考えていましたが、問題はプロセスに時間がかかりすぎることです (一晩中コンピューターを検索したままにしておくと、15 サイトしか見つかりませんでした)。これは、サイトの IP が Web 上で均等に分散されておらず、ほとんどの IP がユーザーまたは他のサービスに属しているためだと思います。今、私は 2 つの新しいアプローチを念頭に置いていたので、皆さんの意見を知りたいと思いました。
Google で何らかの辞書を使用してランダムに検索するとどうなりますか? 辞書は最初は空で始まり、検索を実行するたびに、1 つのサイトをチェックして、1 回出現する単語だけを辞書に追加します。
これは簡単ですか?
最初にやりたいことは、最初のページだけでなく、Google検索でランダムなページも検索することです。どうすればこれを行うことができますか? その検索の最大ページ数を計算する方法と、特定のページに直接移動する方法がわかりません
ありがとう