0

ファイルを定期的にディスクにドロップして、同じデータセンター内の他の複数の Windows サーバーにレプリケートする、Windows でホストされるビルド プロセスについて考えてみます。他のマシンは IIS を実行し、それらのファイルを大衆に提供します。

コーパスの合計サイズは、数百万のファイル、数百 GB のデータになります。ターゲット サーバーで発生する可能性のある競合、WAN 経由などの潜在的なリンク、コールド スタートのクリーン サーバーに対処する必要があります。

これまでに考えた解決策:

  • キューに入れられたシステムとデーモンは定期的に起動し、サービスとしてコピーまたは実行されます。
  • SAN - 高価、複雑、より高価
  • ROBOCOPY、時限ジョブ - シンプルだが効果的。多くの内部/不確定な状態、たとえばコピー中の場所、エラー
  • 既製の交換品。ソフトウェア - SAN よりも安価ですが、それでも高価です
  • UNC 共有フォルダーであり、repl はありません。待ち時間が長く、コストが低い - クラスタリング ソリューションも必要です。
  • DFS レプリケーション。

他の人は他に何を使用しましたか?

4

4 に答える 4

1

特にIISがサイトのホームディレクトリとしてUNCパスを使用する場合、UNC共有フォルダとレプリケーションがないことには多くの欠点があります。ストレス下では、フォルダーを共有しているサーバーに対する同時セッションの数が原因で、http://support.microsoft.com/default.aspx/kb/810886に遭遇します。また、IISはUNCフォルダーをスキャン/インデックス/キャッシュ(IISのバージョンとASP設定に応じて)するため、IISサイトの起動が遅くなります。

非常に有望なDFSを使用したテストを見たことがありますが、上記の制限はありません。

于 2008-09-23T15:10:30.373 に答える
1

管理する数百万ギガのデータはありませんが、主要な会社と海外の代理店の間で一夜にして大量のファイルを送信および収集しています。しばらく allwaysync を使用しています。フォルダー/ftp 同期を許可します。フォルダーとファイルの分析と比較を可能にする優れたインターフェースを備えており、もちろんスケジュールすることもできます。

于 2008-09-19T06:52:19.677 に答える
1

私は rsync スクリプトを使用して、この種の作業に成功しました。私たちの場合、数千台のマシンです。Windows用のrsyncサーバーがあると思いますが、Linux以外では使用していません。

于 2008-09-17T18:38:21.120 に答える
0

私の組織では ROBOCOPY を使用してファイルをやり取りしています。非常にシームレスに実行され、推奨する価値があると感じています.

さらに、あなたはあまりにもクレイジーなことをしていません。perl にも精通している場合は、ニーズを満たす簡単なスクリプトを作成できると確信しています。

于 2008-09-17T18:39:49.727 に答える