0

立ち上げ時に約1,200のプライマリエントリを提供するデータベースサイトがあり、年間約100の新しいエントリが追加される見込みです。各エントリは、データベースからの最大20の基本値、計算された平均評価、および可変量のユーザーコメントで構成されます。

評価とコメントの出力はページリクエスト時に生成する必要がありますが、管理者がエラー修正を行わない限り、残りのデータは静的になります。

帯域幅、データベースの読み込み、ダウンロード時間を考慮すると、ページ全体をその場で生成し、その後にいくつかのクエリを実行するGET方がよいでしょうか。それとも、htmlファイルを用意して評価とコメントを追加してから、次のような更新スクリプトを作成する方がよいでしょうか。実行時にすべてのhtmlレコードを更新しますか?

私の考えでは、長所と短所は次のとおりです。

オンザフライ
+は、必要な場合にのみページを作成することでホスティングスペースを節約します
-検索エンジンが見つけるものを何も残しませんか?
-余分なクエリのために少し遅くなります

HTMLと追加
+検索エンジンに優しい
+クエリが少ないためわずかに高速
-ディスクスペースを使用
-わずかに複雑なコード要件

ニュートラル
=テンプレートはどちらの方法でも同じです

考え?

4

1 に答える 1

1

コーディングするのが最も簡単なことは何でもしてください。実際には、すべての長所と短所が両方のオプションで実際に同じであることがわかります。

個人的には、コメントを配信するためにとにかくデータベースにアクセスする必要があることを考えると、完全にオンザフライで生成されたページに移動します。

1,200のデータベースレコード(実際には、1,200,000のデータベースレコード)から動的にWebページを作成することは、適度に指定された共有ホストでもMySQLとPHPの機能の範囲内です。この組み合わせを数百万のレコードと組み合わせて使用​​するサイトの例はたくさんあるので、パフォーマンスが長い間問題になることはありません。

また、静的データと同じようにデータベースレコードがホスト上のスペースを占有するため、ホスティングスペースを節約できない可能性があります。

検索エンジンは、ユーザーのブラウザが行うことを複製します。サイトのルートに古き良きHTTPGETリクエストを発行し、次に各リンクを分析して、スパイダーが可能なすべてのページを取得するまで各リンクをリクエストします。したがって、データベース駆動型サイトが検索エンジンによってインデックス付けされていることを確認するに<a href="http://linkgoeshere">Link text</a>は、ページに各レコードへのリンクを提供します。

下にグリッドがあるエントリのAZリストのように単純なもので十分です。たとえば、現在作業しているサイトはhttp://arkive.orgで、ここでそれを実行します。

于 2009-12-21T03:47:48.283 に答える