Scikit Learn のドキュメントはすばらしいものですが、分類問題で最適化するカスタム エラー関数を指定する方法があるかどうかはわかりませんでした。
少しバックアップして、私は誤検知が誤検知よりもはるかに優れているテキスト分類問題に取り組んでいます。これは、テキストにユーザーにとって重要であるというラベルを付けているためです。誤検知は、最悪の場合、ユーザーにとってわずかな時間を無駄にしますが、誤検知は、潜在的に重要な情報を表示しない原因となります。したがって、最適化中に偽陰性エラーを拡大 (または偽陽性エラーを縮小) したいと思います。
各アルゴリズムが異なるエラー関数を最適化することを理解しています。そのため、カスタム エラー関数を提供するという点で万能のソリューションはありません。しかし、別の方法はありますか?たとえば、ラベルのスケーリングは、ラベルを実際の値として扱うアルゴリズムでは機能しますが、SVM では機能しません。たとえば、SVM はフードの下でラベルを -1,+1 にスケーリングする可能性が高いためです。