1

私はasp.net(C#)とSQLサーバー2008を使用したWebサイトの開発に比較的慣れていません(今までphp/mySQLを使用していました)。そして、私は現在いくつかの選択に直面しており、それらを作成するのに役立つ提案があれば本当に感謝しています:

SQL Server Express (2008) で実行されているデータベース (DB_A と呼びましょう) があります。そして、私はそれを変更することはできません (しかし、私はそれを使用したり、コピー (DB_C) を実行したりできます) 。問題は、この DB が毎日更新されることです。

さらに、Web にある XML ファイルを解析して、いくつかの情報を取得する必要があります。したがって、これらの情報を必要とするページへのリクエストがあるたびに、C#で直接解析する方が速いのか、それとも定期的に(自動的に)一度解析してデータをSQLテーブルに保存する方が良い/速いのか疑問に思っていました( DB_C で) ? しかし、最後の方法が可能かどうかはわかりません。

1 つのシナリオは次のようになります。Web サイトは DB_A にのみ接続し、その他の必要な情報は XML を (url から) 解析して直接取得します。

誰かがこれについて何か提案がありますか?

4

1 に答える 1

1

最初の部分では、データベースをコピーして変更を同期します。

レプリケーションソリューションを実装し、メイン DB からコピーにデータをレプリケートすることをお勧めします。

選択できるレプリケーション シナリオの情報については、Microsoft の記事をこちらで確認してください。

2 番目の部分では、XML データを解析します。

これはデータ自体に依存します。データが非常に大きく、多くの処理、ビジネス検証などが必要であり、データをすぐに更新する必要がない場合は、要求ごとに解析する必要がないことを確認してください定期的なパーサーを実行して XML を処理するだけですこれは、Web サイトとは別のジョブとして送信されます。つまり、サービス/バッチ/... などです。

それ以外の場合 (データは機密情報です)、リクエストごとに解析する必要があると思います。

ただし、それはすべて、Web アプリケーションのビジネス要件によって異なります。

于 2013-07-16T07:09:53.420 に答える