何百ものポリラインを扱っている場合、https: //developers.google.com/maps/documentation/utilities/polylinealgorithm?hl=sv-SE を使用してポリラインをエンコードすると、パフォーマンスが大幅に向上しますか?
これは主に API v2 で使用されているようですが、v3 は大量のポリラインを単独でうまく処理できますか?
ベンチマーク比較が見つからないようです。
何百ものポリラインを扱っている場合、https: //developers.google.com/maps/documentation/utilities/polylinealgorithm?hl=sv-SE を使用してポリラインをエンコードすると、パフォーマンスが大幅に向上しますか?
これは主に API v2 で使用されているようですが、v3 は大量のポリラインを単独でうまく処理できますか?
ベンチマーク比較が見つからないようです。
google.maps.geometry.encoding.decodePath()
ポリリング/ポリゴンを Google マップに追加するときに、エンコードされたパスをデコードするために を使用すると、かなりの利点があります。1,000 を超えるポイントを持ついくつかのパスがあり、各ポイントをループして LatLng を作成して Polygon に追加する代わりに、単純なデコードを視覚的にすばやく読み込みます。
さらに、Salman が指摘したように、Ajax 経由でパスを渡すためのネットワーク トラフィックを削減することで、大幅な利益が得られる可能性があります。Google の例を見てみましょう:
Characters
0 1 2 3 4 5 6 7
1234567890123456789012345678901234567890123456789012345678901234567890
38.5,-120.2|40.7,-120.95|43.252,-126.453 // Polyline Decoded: 40 chars
_p~iF~ps|U_ulLnnqC_mqNvxq`@ // Polyline Encoded: 27 chars
3 つのポイントのみで、ポイントのサイズを 33% 縮小しました。
正式なベンチマークがあるかどうかはわかりません。ただし、エンコードされたポリラインは、実際の緯度/経度データに比べてサイズが大幅に小さくなります。特に Ajax を使用してマップを更新するときに、時々使用しました。