ユーザーに大きなファイルを提供できる必要があります。ファイルは簡単に 2 GB または 3 GB まで大きくなります。これらのファイルは映画や類似のものではありません。これらは、教育目的でロボットを制御および開発するために必要なソフトウェアです。
私たちのプロジェクト グループでは、この課題にどのように取り組むべきかについて意見が対立しています。まず第一に、Bittorrent は私たちにとって解決策ではありません (それが私たちにもたらす可能性のある良さにもかかわらず)。ファイルは HTTP (FTP ではなく) およびファイルストリーム経由で利用できるため、誰がファイルにアクセスできるかを制御できます。
インターネット黎明期の元海賊として、私はしばしば破損したファイルに苦労し、必要な再ダウンロードの量を最小限に抑えるためにファイルハッシュとファイルセットを使用してきました. 私は、ファイルセットをダウンロードして検証し、ダウンロードと検証が完了したら大きなインストール ファイルを抽出する小さなアプリケーションを推奨します。
私の同僚は、これが必要であるとは考えておらず、TCP/IP プロトコルが破損したダウンロードを回避する機能を継承していると指摘しています。彼らはまた、Microsoft が MSDN ファイルのダウンロード マネージャーから離れたことにも言及しています。
破損したダウンロードは依然として広範囲に及ぶ問題ですか? それとも、実際に影響を受ける人々の数と比較して、この問題の解決策を作成するのに費やす時間が無駄になるのでしょうか?
ダウンロード マネージャーが最適な方法である場合、どのようなアプローチを取ることをお勧めしますか?
-編集 -明確にするためだけに。HTTP 経由で 3GB のデータを 1 つのチャンクでダウンロードするか、大きなファイルを小さなチャンクでダウンロードする (そしてそれらを検証する) 独自の EXE を作成する必要があります。