robot.txtを作成し、Disallowプロパティを使用できます。
たとえば、次の3つのURLについて言及したので:
www.mysite.com/example.html?start=10
www.mysite.com/example.html?start=20
www.mysite.com/example.html?limitstart=0
これを使用する必要があります:
Disallow: /?start=
Disallow: /?limitstart=
Disallow:を使用する必要があります。その後に、/と、禁止するものに含まれるパターンが続きます。特定のファイルまたはフォルダーをターゲットにすることができます。
User-agentプロパティを使用して、ファイルまたはフォルダーを非表示にするボットを指定することもできます。
User-agent: *
Disallow: /?start=
Disallow: /?limitstart=
上記のコードは、すべてのボットまたはクロールエンジンで機能します。
User-agent: googlebot
Disallow: /?start=
Disallow: /?limitstart=
このコードは、たとえばGoogleでのみ機能します。
参考までに、 www.robotstxt.orgで見つけた資料を読むことができます。また、ウィキペディアには十分に優れたページがあります。http://en.wikipedia.org/wiki/Robots.txt
別の詳細なリファレンスはここにあります:https ://developers.google.com/webmasters/control-crawl-index/docs/robots_txt