ボットが私のウェブページからすべてのコンテンツをコピーするという問題に直面しています (私はかなり頻繁に更新しようとしています)。
それらを禁止するか、コードを難読化してコピーをより困難にしようとしています。しかし、彼らはこれらの制限を克服する方法を見つけました。
1 分あたりのヒット数 (または X 時間、必ずしも分ではありません) を制限したいと思いますが、キャプチャを使用してこれらの制限を克服します。たとえば、過去 5 分間に 10 ページを超えるページをリクエストした場合は、Captcha を使用して人間であることを証明する必要があります。そのため、ユーザーが正当なユーザーであれば、引き続き Web サーフィンを行うことができます。
コンテンツページでのみ行いたいです(より効率的に行うため)。MemCached も考えたのですが、サーバーに借りがないので使えません。もし私がサーブレットを使っていたら、HashMap などを使うでしょうが、私は PHP を使っているので、まだ解決策を考えようとしています。
1 秒あたりのヒット数が多いため、MySql (またはデータベース) を解決策とは考えていません。そして、数分前のリクエストの後に削除する必要があり、不要で非効率的なトラフィックが大量に発生します。
何か案は?
要約: Web ページのセクションで 1 分あたりのヒット数が多すぎる場合は、PHP で Captcha を効率的に使用して制限したいと考えています。たとえば、過去 5 分間に 10 ページを超えるページをリクエストした場合は、Captcha を使用して人間であることを証明する必要があります。