私が理解しようとしている質問は次のとおりです。
この問題では、TCP スロースタート フェーズによって導入される遅延を考慮します。クライアントと Web サーバーがレート R の 1 つのリンクで直接接続されているとします。クライアントが、サイズが 15S に正確に等しいオブジェクトを取得したいとします。ここで、S は最大セグメント サイズ (MSS) です。クライアントとサーバー間のラウンドトリップ時間を RTT (一定であると仮定) で表します。プロトコル ヘッダーを無視して、オブジェクトを取得する時間を決定します (TCP 接続の確立を含む)。
- 4S/R > S/R + RTT > 2S/R
- 8S/R > S/R + RTT > 4S/R
- S/R > RTT
私はすでに解決策を持っています(教科書の問題です)が、どうやって答えにたどり着いたのかわかりません。
- RTT + RTT + S/R + RTT + S/R + RTT + 12S/R = 4 · RTT + 14 · S/R
- RTT+RTT+S/R+RTT+S/R+RTT+S/R+RTT+8S/R=5・RTT+11・S/R
- RTT + RTT + S/R + RTT + 14S/R = 3 · RTT + 15 · S/R
そして、ここに答えと一緒に行くイメージがあります:
私にとってどのような意味がありますか: 各シナリオは、RTT 時間が一定量のセグメントを送信するのにかかる時間よりも多いまたは少ないシナリオです。したがって、最初の場合、RTT ごとに 3S/R から S/R 秒かかります。そこから、スロースタートがどのように動作しているのかわかりません。確認応答されたすべてのパケットのウィンドウ サイズが大きくなるだけだと思いました。しかし、たとえば #1 の解決策では、2 つのパケットのみが送信されて ACK が返されたように見えますが、ウィンドウ サイズは 12S に跳ね上がりますか? ここで何が欠けていますか?