3

ログイン後に Facebook の html コードを見ていると、JS ファイルに対して多くのリクエストが行われているようです (firebug によると最大 20 件)。私が最初に知りたかったことをほぼ要約しているこの質問をここで見つけましたが、その質問は今ではかなり古く、リンク先のブログ投稿は2010年のものであり、FacebookはSEOを気にしていないようです.

したがって、Facebook が (1 つの JS ファイルと 1 つの CSS ファイルではなく) 多くの JS ファイルと CSS ファイルをロードする必要があることは理解していますが、私の質問は、より汎用的な Web サイトと Web クローラーの状態に関するものです。これらの手法 (ajax を介してメイン コンテンツをロードする) が Web クローラー (googlebot や友人) に影響することを心配する必要がありますか?

パフォーマンスを改善したいのですが、後で必要なコンテンツ (text/js/css) をロードすることは良い考えのように思えますが、クローラーが (もちろんコンテンツを) 利用できない場合はそうではありません。

ありがとう!

4

1 に答える 1

0

http://support.google.com/webmasters/bin/answer.py?hl=ja&answer=81766

Googlebot は HTML リンクの構造を理解するのに優れていますが、ナビゲーションに JavaScript を使用するサイトでは道を見つけるのが難しい場合があります。JavaScript をよりよく理解できるように取り組んでいますが、Google やその他の検索エンジンでクロール可能なサイトを作成するための最善の策は、コンテンツへの HTML リンクを提供することです。

googlebot とほとんどの検索エンジンのクローラーは javascript コードを実行しません。これは、javascript と css をロードするとページ レンダリングが行われ、パフォーマンスが向上し、スパイダーがそれに対応できないためです。

ただし、スパイダーは特定のパターンをチェックするために js コードを覗くことができます (たとえば、ブラックハット テクニックが使用されているなど)。

最良の (しかし困難な) 解決策は、javascript を実行できないエージェント (メイン ページのコンテンツが利用可能である必要があります) に基本的なコンテンツを提供し、最新のブラウザー向けにより多くの機能を備えた最適化されたコンテンツを提供することです。

于 2013-03-18T14:47:59.027 に答える