トレーニング中の fastai では、検証の損失と評価メトリックがエポックごとに計算され、SaveModelCallback() コールバックを使用すると、最良のエポックが保存されます。ただし、このプロセスの頻度を増やして、n ステップごとにメトリックを評価することもできます (例: バッチ サイズ: 32、64 など)。これにより、モデルが過剰適合し始める瞬間をより適切に捉えることができます。これは、BestCheckpointer クラスを介して detectron2 のようなリポジトリで非常に簡単に使用できます。fastai でそのようなコールバックを実装する方法についてのアイデアはありますか? 参考までに、これはこのフォーラムで議論されましたが、解決策は得られませんでした