大きな問題は、問題データについて何をしようとしているのかを特定することです。
- なし
- 他の場所に保持され、コードを介してアクセス可能なデータから再構築する
- データを手動で再構築する
- それを削除する(またはできればアーカイブする)
そのためには、問題データがシステム/組織にどのように影響し、解決策がシステム/組織にどのように影響するかを確立する必要があります。
これは、分類の最初のレベルです。これを取得したら、特定の問題の特定を開始し、これから誤ったパターンを定義する一連のセマンティックルールを導き出す必要があります。
これにより、必要な修正を定義し、作業に効果的に優先順位を付け、リソースの使用率を計画できるようになります。また、ルート原因の削除に優先順位を付け、計画し、部分的に特定できるようにする必要があります。
「巨大」の定義が何であるかはわかりませんが、それに貢献しているプログラマーがたくさんいることを意味していると思います。その場合、データの整合性を管理するための標準と手順を確立する必要があります。パフォーマンスとセキュリティで行う必要があるのと同じように。
定義したルールは継続的なデータ管理の開始点ですが、これらを今後どのように適用するかを検討する必要があります-すべてのテーブルにタイムスタンプフィールドを追加する/特定のルールに違反する行を参照するテーブルを維持することは、データをチェックするたびにすべてのデータを処理する必要があります-前回チェックしてから変更されたものだけです-違反リストから削除されたケースとケースを追跡することをお勧めします追加されています。
適用された修正と対応するルール違反の記録を保持し、データを分析して、リファクタリングによってコードの保守性が向上する可能性のあるホットスポットを特定します。