128k などの低速のインターネット接続を使用しています。別の Web サイトから 100 ページを取得し、curl などを使用してそのコンテンツをデータベースに格納するスクリプトを作成すると、100 ページすべてを取得するにはかなりの時間がかかります。
$get = file_get_contents("www.google.com?search=something");
$res = pareser::parse()$get;
foreach($res as $r )
{
$db->insert($r['title']);
}
しかし、AJAX を使用して AJAX リクエストをサーバーに送信し、スパイダーをアクティブにするとどうなるでしょうか。私のサーバーの速度はクライアントの速度よりもはるかに速く、現在スクリプトを実行しているのはサーバーです (少なくとも私はそう思います!)。しかし、100ページをリーチする速度に大きな違いがないのはなぜですか?