マルチスレッド環境で Web ページのコンテンツを大量にスクレイピングしています。サーバーの一時的な障害や接続の切断などに耐えられる、信頼性の高いダウンローダ コンポーネントが必要です。以下は私のコードの例です。
今、私は奇妙な状況を何度も経験しています。すべてが完璧に始まります。10 個のスレッドが約 10 分間同時にデータをプルします。その後、リクエスト オブジェクトの GetResponse メソッドを呼び出した直後に、タイムアウトのある WebException を取得し始めます。休憩を取る (スレッドをスリープ状態にする) ことは役に立ちません。アプリケーションを停止し、次の 10 分が経過して問題が再発するまで最初からやり直す場合にのみ役立ちます。
私がすでに試したことは何も役に立たなかった:
- 応答オブジェクトを明示的に、および「using」ステートメントを介して閉じる/破棄する
- request.Abort を呼び出すことができた可能性があるすべての場所で
- ServicePointManager/ServicePoint および WebRequest レベルでタイムアウトを操作する (タイムアウト間隔を延長/短縮する)
- KeepAlive プロパティを操作する
- CloseConnectionGroup を呼び出す
- 同時に実行するスレッドの数を操作する
何も役に立ちません!したがって、それはバグか、少なくとも文書化されていない動作のようです。Google と Stackoverflow でこれに関する多くの質問を見てきましたが、完全に回答されているものはありません。基本的に、人々は上記のリストのいずれかを提案します。私はそれらすべてを試しました。
public TResource DownloadResource(Uri uri)
{
for (var resourceReadingAttempt = 0; resourceReadingAttempt <= MaxTries; resourceReadingAttempt++)
{
var request = (HttpWebRequest)WebRequest.Create(uri);
HttpWebResponse response = null;
for (var downloadAttempt = 0; downloadAttempt <= MaxTries; downloadAttempt++)
{
if (downloadAttempt > 0)
{
var sleepFor = TimeSpan.FromSeconds(4 << downloadAttempt) + TimeSpan.FromMilliseconds(new Random(DateTime.Now.Millisecond).Next(1000));
Trace.WriteLine("Retry #" + downloadAttempt + " in " + sleepFor + ".");
Thread.Sleep(sleepFor);
}
Trace.WriteLine("Trying to get a resource by URL: " + uri);
var watch = Stopwatch.StartNew();
try
{
response = (HttpWebResponse)request.GetResponse();
break;
}
catch (WebException exception)
{
request.Abort();
Trace.WriteLine("Failed to get a resource by the URL: " + uri + " after " + watch.Elapsed + ". " + exception.Message);
if (exception.Status == WebExceptionStatus.Timeout)
{
//Trace.WriteLine("Closing " + request.ServicePoint.CurrentConnections + " current connections.");
//request.ServicePoint.CloseConnectionGroup(request.ConnectionGroupName);
//request.Abort();
continue;
}
else
{
using (var failure = exception.Response as HttpWebResponse)
{
Int32 code;
try { code = failure != null ? (Int32)failure.StatusCode : 500; }
catch { code = 500; }
if (code >= 500 && code < 600)
{
if (failure != null) failure.Close();
continue;
}
else
{
Trace.TraceError(exception.ToString());
throw;
}
}
}
}
}
if (response == null) throw new ApplicationException("Unable to get a resource from URL \"" + uri + "\".");
try
{
// response disposal is required to eliminate problems with timeouts
// more about the problem: http://stackoverflow.com/questions/5827030/httpwebrequest-times-out-on-second-call
// http://social.msdn.microsoft.com/Forums/en/netfxnetcom/thread/a2014f3d-122b-4cd6-a886-d619d7e3140e
TResource resource;
using (var stream = response.GetResponseStream())
{
try
{
resource = this.reader.ReadFromStream(stream);
}
catch (IOException exception)
{
Trace.TraceError("Unable to read the resource stream: " + exception.ToString());
continue;
}
}
return resource;
}
finally
{
// recycle as much as you can
if (response != null)
{
response.Close();
(response as IDisposable).Dispose();
response = null;
}
if (request != null)
{
//Trace.WriteLine("closing connection group: " + request.ConnectionGroupName);
//request.ServicePoint.CloseConnectionGroup(request.ConnectionGroupName);
request.Abort();
request = null;
}
}
}
throw new ApplicationException("Resource was not able to be acquired after several attempts.");
}