こんにちは、Github からSimpleKmeanClusteringコードを実行して、クラスタリングがどのように機能するかを確認しようとしています。Windows Eclipse でコードをコンパイルできます。
私は自分のプロジェクトの jar を作成しました。これを単一ノードの Hadoop クラスター ( CHD-4.2.1 ) で実行し、mahout をインストールしたいと考えています。mahout の例はこのクラスターで正常に動作するため、インストールに関する問題はありません。
コマンドPromtで次のコマンドを使用してjarを実行しますが、正しい方法で試しているかどうかわかりません。
user@INFPH01463U:~$ mahout jar /home/user/apurv/Kmean.jar tryout.SimpleKMeansClustering
対応するエラーが発生しました
MAHOUT_LOCAL が設定されていません。HADOOP_CONF_DIR をクラスパスに追加します。/usr/lib/hadoop/bin/hadoop および HADOOP_CONF_DIR=/etc/hadoop/conf を使用して Hadoop で実行 MAHOUT-JOB: /usr/lib/mahout/mahout-examples-0.7-cdh4.3.0-job.jar 13/ 06/06 14:42:18 警告 driver.MahoutDriver: クラスを追加できません: jar java.lang.ClassNotFoundException: jar at java.net.URLClassLoader$1.run(URLClassLoader.java:202) at java.security.AccessController.doPrivileged (ネイティブ メソッド) java.net.URLClassLoader.findClass(URLClassLoader.java:190) で java.lang.ClassLoader.loadClass(ClassLoader.java:306) で java.lang.ClassLoader.loadClass(ClassLoader.java:247) でorg.apache.mahout.driver.MahoutDriver.addClass(MahoutDriver. java:236) org.apache.mahout.driver.MahoutDriver.main(MahoutDriver.java:128) で sun.reflect.NativeMethodAccessorImpl.invoke0(ネイティブ メソッド) で sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39) でsun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25) で java.lang.reflect.Method.invoke(Method.java:597) で org.apache.hadoop.util.RunJar.main(RunJar.java:208) で) 13/06/06 14:42:18 警告 driver.MahoutDriver: クラスパスに jar.props が見つかりません。コマンドライン引数のみを使用します 不明なプログラム 'jar' が選択されました。有効なプログラム名は次のとおりです。 arff.vector: : ARFF ファイルまたはディレクトリからベクトルを生成します baumwelch: : 教師なし HMM トレーニング用の Baum-Welch アルゴリズム canopy: : Canopy clustering cat: :
cleansvd: : SVD 出力のクリーンアップと検証 clusterdump: : クラスター出力をテキストにダンプします。 clusterpp: : クラスター内のグループ クラスタリング出力 cmdump: : HTML またはテキスト形式で混同行列をダンプし
ます
cvb0_local: : Collapsed Variation Bayes を介した LDA (ローカルのメモリ内)。
dirichlet: : ディリクレ クラスタリング eigencuts: : 固有カット スペクトル クラスタリング evaluateFactorization: : プローブに対する評価行列因子分解の RMSE と MAE を計算します fkmeans: : ファジー K 平均法クラスタリング fpg: : 頻繁なパターンの成長itemsimilarity: : アイテムベースの協調フィルタリングの item-item-similarities を計算する kmeans: : K-means クラスタリング lucene.vector: : Lucene インデックスからベクトルを生成する matrixdump: : CSV 形式でマトリックスをダンプする matrixmult: : 2 の積を取るmatrices meanshift: : 平均シフト クラスタリング minhash: : Minhash クラスタリングを実行 parallelALS: : 評価行列の ALS-WR 因数分解 recommendfactorized: : 評価行列の因数分解を使用して推奨事項を計算します
recommenditembased: : 項目ベースの協調フィルタリングを使用して推奨事項を計算します regexconverter: : 正規表現に基づいて行単位でテキスト ファイルを変換しますrunAdaptiveLogistic: : おそらくトレーニングおよび検証済みの AdaptivelogisticRegression モデルを使用して、新しい本番データをスコア付けします runlogistic: : CSV データに対してロジスティック回帰モデルを実行します seq2encoded: : テキスト シーケンス ファイルからのエンコードされたスパース ベクトルの生成ディレクトリから (テキストの) シーケンス ファイルを生成します seqdumper: : Generic Sequence File dumper seqmailarchives: :gzip 圧縮されたメール アーカイブを含むディレクトリから SequenceFile を作成します。 : : 確率的 SVD svd: : ランチョス特異値分解 testnb: : ベクトル ベースのベイズ分類器をテストする trainAdaptiveLogistic: : AdaptivelogisticRegression モデルをトレーニングする trainlogistic: : 確率的勾配降下法を使用してロジスティック回帰をトレーニングする: : 行列の転置を行います validateAdaptiveLogistic: : ホールドアウト データ セット vecdist に対して AdaptivelogisticRegression モデルを検証します: :ベクトルのセット (またはクラスタまたはキャノピー、メモリに収まる必要があります) とベクトルのリストの間の距離を計算します。 vectordump: : シーケンス ファイルからテキストにベクトルをダンプします。 /06/06 14:42:18 INFO driver.MahoutDriver: プログラムに 2 ミリ秒かかりました (分: 3.3333333333333335E-5)
これが私が使用している私のコードです:
コード
package tryout;
import java.io.File;
import java.io.IOException;
import java.util.ArrayList;
import java.util.List;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.SequenceFile;
import org.apache.hadoop.io.Text;
import org.apache.mahout.math.RandomAccessSparseVector;
import org.apache.mahout.math.Vector;
import org.apache.mahout.math.VectorWritable;
import org.apache.mahout.clustering.kmeans.Kluster;
import org.apache.mahout.clustering.classify.WeightedVectorWritable;
import org.apache.mahout.clustering.kmeans.KMeansDriver;
import org.apache.mahout.common.distance.EuclideanDistanceMeasure;
public class SimpleKMeansClustering {
public static final double[][] points = { {1, 1}, {2, 1}, {1, 2},
{2, 2}, {3, 3}, {8, 8},
{9, 8}, {8, 9}, {9, 9}};
public static void writePointsToFile(List<Vector> points,
String fileName,FileSystem fs,Configuration conf) throws IOException {
Path path = new Path(fileName);
@SuppressWarnings("deprecation")
SequenceFile.Writer writer = new SequenceFile.Writer(fs, conf,path, LongWritable.class, VectorWritable.class);
long recNum = 0;
VectorWritable vec = new VectorWritable();
for (Vector point : points) {
vec.set(point);
writer.append(new LongWritable(recNum++), vec);
} writer.close();
}
public static List<Vector> getPoints(double[][] raw) {
List<Vector> points = new ArrayList<Vector>();
for (int i = 0; i < raw.length; i++) {
double[] fr = raw[i];
Vector vec = new RandomAccessSparseVector(fr.length);
vec.assign(fr);
points.add(vec);
}
return points;
}
public static void main(String args[]) throws Exception {
int k = 2;
List<Vector> vectors = getPoints(points);
File testData = new File("testdata");
if (!testData.exists()) {
testData.mkdir();
}
testData = new File("testdata/points");
if (!testData.exists()) {
testData.mkdir();
}
Configuration conf = new Configuration();
FileSystem fs = FileSystem.get(conf);
writePointsToFile(vectors, "testdata/points/file1", fs, conf);
Path path = new Path("testdata/clusters/part-00000");
@SuppressWarnings("deprecation")
SequenceFile.Writer writer = new SequenceFile.Writer(fs, conf,path, Text.class, Kluster.class);
for (int i = 0; i < k; i++) {
Vector vec = vectors.get(i);
Kluster cluster = new Kluster(vec, i, new EuclideanDistanceMeasure());
writer.append(new Text(cluster.getIdentifier()), cluster);
}
writer.close();
KMeansDriver.run(conf, new Path("testdata/points"), new Path("testdata/clusters"),
new Path("output"), new EuclideanDistanceMeasure(), 0.001, 10,
true,0.0, false);
@SuppressWarnings("deprecation")
SequenceFile.Reader reader = new SequenceFile.Reader(fs,new Path("output/" + Kluster.CLUSTERED_POINTS_DIR+ "/part-m-00000"), conf);
IntWritable key = new IntWritable();
WeightedVectorWritable value = new WeightedVectorWritable();
while (reader.next(key, value)) {
System.out.println(value.toString() + " belongs to cluster " + key.toString());
}
reader.close();
}
}
誰でもこれを案内できますか...