2

CDNs seem like a tremendously brute-force approach to improving website performance across the world, since they use some thousands of machines close to the end-user to ensure good throughput.

Are there any ways of improving performance over long distances with high latency or slow-ish links (e.g., UK to Australia) over the "usual" methods of reducing size and number of requests, or is the only other way to have servers closer to the user?

4

5 に答える 5

3

You can't circumvent latency by reducing size. Just make sure your server supports Keepalive, everything that should be cached actually comes with appropriate Expires: headers and that your HTML is reasonably sized (i.e. also use gzip compression) - then see how far you get with that and whether multi-homing is still necessary.

于 2009-04-02T09:50:58.737 に答える
1

精神的に聞こえますし、HTML が有効かどうかはわかりませんが、再利用可能なスクリプトへの参照を HTML の下部の の直前に配置し</body>ます。

テストでは、スクリプトのダウンロードと解析中に HTML と画像が表示されるため、主観的な速度の印象が大幅に向上することがわかりました。

そのためのACMへの帽子のヒント。

于 2009-04-02T09:56:03.013 に答える
1

あなたは物理法則を打ち負かすことができます。光の速度は速いかもしれませんが、それでも有限です。そのため、距離と、実際にダウンロードするものの数、およびそれらのサイズが重要になります。

于 2009-04-02T10:13:55.357 に答える
0

サーバーをバックボーン IXP の近くに配置すると役立ちます。

于 2009-04-02T09:51:39.420 に答える
0

トラフィックのパフォーマンスに影響を与える他の方法がない「通常の」方法を除いて、あなたと目的地の間の要素に翻弄されます。

一部のグループは、大きなファイルの配布に p2p ネットワークを使用し始めています。Sky、BBC などはダウンロード サービスに使用していますが、正直なところ、ファイルをできるだけラスト マイルに近づけることが最善の解決策であることは間違いありません。

于 2009-04-02T09:51:51.540 に答える