1

私の質問は、大規模な組織(ニュースWebサイトなど)で働く数百人が編集した大規模なWebサイトがWebページをどのように編成しているかに関するものです。バックグラウンドでどのようなメカニズムが機能しますか?

  • 各記事はデータベース上のテーブルの行を表していますか?もしそうなら、画像と埋め込みビデオはどのように組み込まれていますか。
  • または、各ページは、サイドバー、ヘッダー、およびスタイル設定用の「include」タグを含む個別のWebファイルです。確かにBBCのWebサイトでは、各ニュースページは個別の「.stm」ファイルのように見えますが、多くの人が共同作業をしている場合、これは非常に効率的な方法とは言えません。
  • または、各ページは、データベースによって編成されているが、データベースに保存されていない多くのファイルの1つですか?

無数の方法があると確信していますか?最大の組織は何を使用していますか?

4

1 に答える 1

0

そのようなサイトにはいくつかの異なるアプローチがあると思います。

  1. コンテンツ管理システムベース。この場合、記事は実際にはデータベース内の複数の行であるフィールドのコレクションである可能性があるため、説明するほど単純ではありません。フィールドはおそらくリッチテキスト/HTMLの混合であるため、いくつかのタグを含めることができますが、画像やその他のものは他のものからのものである可能性があります。この場合、フィールドを組み合わせてページを形成する方法を知っているXSLTレンダリングが存在する可能性があることに注意してください。

  2. プラットフォームベース。一方、Facebookのようなものは、コンテンツの編集と更新を処理する方法が異なる可能性があるため、CMSの状況の外にあると思います。これが他のアプローチをどれだけ補完するかはわかりませんが、いくつかの点で多少異なると思います。この場合、ここでの考え方は、大規模サイトの背後にある会社が、コンテンツとその構造を保存するための独自の方法を持っているということです。


もう少し追加します。BBCのサイトのFutureMediaStandards&Guidelinesには、「STM」サイトなど、サイトの構造に関する詳細が記載されている場合があります。FiddlerFirebugは、最初に1つのURLからダウンロードされるファイルの数に驚かされるかもしれないので、Webページを要求するために実際に行われるすべての要求に注意します。

于 2010-06-29T20:11:14.830 に答える