Javaの関数を改ざんすることなく、ハッシュマップバケットごとのエントリ数を厳密に保証する方法はありますか?object.hashcode()
負荷率は平均です:(エントリの数)/(バケットの数)。基本的に、容量が1000のハッシュマップがあるとします。この例では、負荷率1を使用するとします。HashMapに格納する100個のオブジェクトには、常にすべてのオブジェクトに同じ値。100個のオブジェクトの保存が完了すると、それらはすべて同じHashMapバケットにマップされ、最終的にLinkedListのパフォーマンスになります。100エントリ/1000バケット=0.1<1であるため、負荷率はサイレントになります。同じオブジェクトを1M配置するとどうなりますか。LFがトリガーされることはないため、HashMapのサイズは変更されません(とにかく使用されません) 。
これは現実の世界では珍しいシナリオですが、理解を深めたいと思います。これを防ぐ方法、または少なくとも構造自体から警告を受け取る方法はHashMapにありますか?