1

予期しないサーバー側のエラーを電子メールで報告する Web サイトがあります。

非常に頻繁に (1 ~ 2 週間に 1 回) 誰かが自動化ツールを起動して、大量の異なる URL で Web サイトを攻撃します。

  • 時々彼ら(ハッカー?)は、私のサイトがphpmyadminでホストされていると考え、脆弱な(私は信じている)phpページにアクセスしようとします...
  • 実際には存在しないが人気のある CMS に属するページにアクセスしようとすることがあります。
  • 前回、間違った ViewState を注入しようとしたとき...

エラーを生成したリクエストの 100% が無効なページへのリクエストであるため、明らかに検索エンジンのスパイダーではありません。

今のところ、彼らはそれほど害を及ぼすことはありませんでしたが、唯一のことは、大量のサーバーエラーメール (200-300) を削除する必要があることです... しかし、ある時点でおそらく何かを見つけることができます.

私はそれに本当にうんざりしていて、そのような「スパイダー」をブロックするソリューションを探しています.

すぐに使えるものはありますか?ツール、dllなど...または、自分で何かを実装する必要がありますか?

2 番目のケース: 実装するアプローチをお勧めできますか? IP からの 1 秒あたりのリクエスト数を制限する必要がありますか (たとえば、1 秒あたり 5 件以下、1 分あたり 20 件以下)。

PS 現在、私の Web サイトは ASP.NET 4.0 を使用して作成されています。

4

3 に答える 3

3

サーバーとソフトウェアを最新の状態に保つだけであれば、そのようなボットがシステムの脆弱性を見つける可能性はほとんどありません。彼らは一般的に、既知の脆弱性を修正するために更新されていないシステムなど、容易に達成できる成果を探しているだけです。

このようなトラフィックを最小限に抑えるために、ボット トラップを作成できます。あなたが知っている存在しないページの 1 つに誰かがアクセスしようとするとすぐに、同じブラウザ文字列を使用してその IP アドレスからのすべての要求をしばらく停止することができます。

于 2013-03-19T01:36:12.393 に答える
2

考えられることがいくつかあります...

利用可能な Web アプリケーション ファイアウォールのいずれかを使用できます。通常、一連のルールと分析エンジンがあり、疑わしいアクティビティを判断してそれに応じて対応します。たとえば、あなたの場合、攻撃パターンとして認識されるため、サイトをスキャンしようとする試みを自動的にブロックできます。

より単純な (しかし 100% の解決策ではない) アプローチは、リファラー URL (wiki のリファラー URL の説明) をチェックすることであり、リクエストがあなたのページのいずれからも発信されていない場合は、それを拒否しました (おそらく、その目的のために httpmodule を作成する必要があります)。

そして当然のことながら、OWASP TOP 10 リスト ( OWASP TOP 10 )から既知のすべてのセキュリティ問題に対応していることを確認する必要があります。ここで asp.net でそれを行う方法の非常に包括的な説明を見つけることができます ( pdf の .net ブックの owasp トップ 10 )。前述の本の著者のブログを読むこともお勧めします: http://www.troyhunt. com/

于 2013-03-19T02:39:08.647 に答える
2

脆弱性スキャンを防ぐために (確実に) できることは何もありません。実際にできることは、脆弱性を把握し、脆弱性の悪用を防ぐことだけです。

あなたのサイトが選ばれた少数の人々によってのみ使用され、一定の場所にある場合は、IP制限を使用できます

于 2013-03-19T01:32:49.013 に答える