TCP セグメントには 16 ビットのチェックサム フィールドが含まれており、IP データグラムや UDP パケットにも含まれています。ただし、リンク層では、CRC チェックサムは 4 ビットのみです (802.3 および 802.4 の場合)。
スペクトルの極端な部分では、偶数のビットが変更されているため、パリティ ビットを計算するだけで多くの偽陽性が発生する可能性があります。一方、4 ビットで十分な場合に 16 ビットのチェックサムを使用すると、メモリ/帯域幅/お金の無駄になります。
チェックサムのビット数をどのように評価しますか?
PS: インターネット スタックを例に挙げましたが、これは実際にはどのプロトコル/ソフトウェアにも当てはまります。
PS2: どのフォーラムを使用すればよいかわかりません。