Web アプリケーションをデプロイするときの一般的なアプローチは、実際のアプリケーション ロジックを一連のサービスとして実装し、それらを HTTP 経由で公開してから、サービスとユーザーの間にいくつかのフロント エンドを配置することです。通常、これらのフロント エンドは、SSL、セッション データ、負荷分散、ルーティング リクエスト、場合によってはキャッシュなどを処理します。
私の知る限り、通常、新しいリクエストが来るたびに、1 つ以上の新しいリクエストを 1 つ以上のバックエンドに対して行う必要があることを意味します。それぞれに TCP ハンドシェイク、HTTP オーバーヘッドなどがあります。
追加の接続によって、測定可能な遅延やパフォーマンス ヒットが追加されることはありませんか? もしそうなら、そのような展開から最高のパフォーマンスを得るためにどのような手法が一般的に実践されていますか?