ええと、「k-meansフレームワーク」でKLを使用するのは良い考えではないかもしれません。言われたように、それは対称的ではなく、K-Meansはユークリッド空間で機能することを目的としています。
ただし、NMF(非負行列因子分解)を使用してみることができます。実際、本Data Clustering(Aggarwal and Reddyが編集)では、NMF(クラスタリングタスク内)がk-meansのように機能することを証明できますが、非負の制約があります。楽しい部分は、NMFがさまざまな距離と発散の束を使用する可能性があることです。Pythonをプログラムする場合:scikit-learn 0.19は、自由度として可変ベータを持つベータ発散を実装します。ベータの値に応じて、発散の動作は異なります。ベータが2に等しい場合、KL発散の動作を想定しています。
これは実際、トピック(またはテーマ)上でドキュメント/単語をクラスター化しようとするトピックモデルのコンテキストで非常に使用されます。KLを使用することにより、結果は、単語トピックとトピック分布がどのように関連しているかに関する確率関数として解釈できます。
あなたはより多くの情報を見つけることができます:
FÉVOTTE、C。、IDIER、J.「β発散を伴う非負行列因子分解のアルゴリズム」、ニューラル計算、v。23、n。9、pp。2421– 2456、2011. ISSN:0899-7667。土井:10.1162/NECO_a_00168。Disponívelem:。
LUO、M.、NIE、F.、CHANG、X.、etal。「確率的非負行列因子分解とトピックモデリングのためのそのロバストな拡張」。In:AAAI、pp。2308–2314、2017。
KUANG、D.、CHOO、J.、PARK、H.「インタラクティブトピックモデリングとドキュメントクラスタリングのための非負行列因子分解」。In:Partitional Clustering Algorithms、Springer、pp。215–243、2015年。
http://scikit-learn.org/stable/modules/generated/sklearn.decomposition.NMF.html