問題タブ [arff]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - wekaの視覚化タブのジッターの意味は何ですか
wekaでは、arff ファイルを読み込みます。視覚化タブを使用して、属性間の関係を表示できます。
しかし、ジッタースライダーの意味がわかりません。その目的は何ですか?
python - Python で高速パーサーを作成する
ある講義で使用するいくつかのファイル形式 ( ARFF )用に、実践的な再帰的な純粋な python パーサーを作成しました。現在、私のエクササイズ提出の実行が非常に遅いです。私のパーサーで最も多くの時間が費やされていることがわかりました。多くの CPU 時間を消費しています。HD がボトルネックではありません。
Python でパーサーを作成するには、どのようなパフォーマンスの高い方法があるのだろうか? Cで書き直したくないので、jythonを使おうとしましたが、パフォーマンスが大幅に低下しました。私が解析したファイルは部分的に巨大 (> 150 MB) で、非常に長い行があります。
私の現在のパーサーは、1 文字の先読みしか必要としません。ここにソースを投稿しますが、それが良いアイデアかどうかはわかりません。やはり提出期限はまだ終わっていません。ただし、この演習の焦点はパーサーではありません。使用したい言語を選択でき、Java 用のパーサーが既に用意されています。
注: 私は x86_64 システムを使用しているため、サイコ (および PyPy のようにも見えます) はオプションではありません。
更新: パーサー/ライターをbitbucketにアップロードしました。
java - Wekaコードを再利用してARFFファイルを解析する
誰かがこれをしましたか?このパーサーモジュールの使用方法に関するドキュメントはありますか?コードを調べましたが、解析後にデータを実際に使用する方法がわかりません。
ファイルsrc\main \ java \ weka \ core \ converters \ ArffLoader.java(Arff解析が行われる場所であると私は想定しています)には、次の手順があります。
- バッチ使用の一般的なコード:
- BufferedReaderリーダー=newBufferedReader(new FileReader( "/ some / where / file.arff"));
- ArffReader arff = new ArffReader(reader);
- インスタンスデータ=arff.getData();
- data.setClassIndex(data.numAttributes()-1);
しかし、「データ」で他に何ができるでしょうか?各行と各行の値にアクセスするにはどうすればよいですか?
(ちなみに、私はJavaを初めて使用します。このコードを実行すると、データが何を提供するかを確認するために、データに対して何らかの内省を行うことができますか?それがPythonで行うことです。)
(プロジェクトで使用する、より単純なオープンソースのArffパーサーが存在する場合はその提案も受け付けています。)
java - Weka Javaコードの使用-CSV(ヘッダー行なし)をARFF形式に変換するにはどうすればよいですか?
Weka Javaライブラリを使用してCSVファイルを読み込み、ARFFファイルに変換しています。
問題は、CSVファイルにヘッダー行がなく、データのみがあることです。CSVファイルを取り込んだ後、属性名を割り当てるにはどうすればよいですか?(すべての列は文字列データ型になります)
これが私がこれまでに持っているコードです:
私はこれを理解するためにWekaのソースコードを調べてみましたが、それの頭や尾を作ることができませんでした:-(
xml - WEKA ファイル形式
WEKA にxml
ファイルをフィードできますか? または、arff
フォーマットを使用する必要がありますか?
ありがとう
python - Python出力からARFFファイルを作成する
テキストファイルから単語を抽出し、ファイル内で出現する回数をカウントするPythonスクリプトがあります。
それらを「.ARFF」ファイルに追加して、weka分類に使用したいと思います。上記は私のPythonスクリプトの出力例です。各テキストファイルを別々に保ちながら、それらをARFFファイルに挿入するにはどうすればよいですか。各ファイルは、{"ここに単語があります!!"}によって区別されます。
cluster-analysis - コマンド ラインで Weka を使用してクラスター割り当て arff ファイルを生成する
weka のエクスプローラーでは、データに対してクラスタリングを実行し、視覚化を使用して、クラスターの割り当てを属性として新しい arff ファイルを保存できます。
コマンドラインで実行可能ファイルを呼び出して、これを自動的に行う方法はありますか?
python - 単語頻度から ARFF を作成する
テキストで発生する頻度を含む単語のリストを提供するコードがいくつかあります。コードが上位10単語を自動的にARFFに変換するようにしようとしています
@RELATION 単語頻度
@ATTRIBUTE 単語文字列 @ATTRIBUTE 頻度 数値
上位 10 件は頻度とともにデータとして表示されます。
現在のコードでこれを行う方法に苦労しています
これを行う方法は本当に私の頭を悩ませています!
weka - wekaのARFFからのデータの分類
wekaエクスプローラーにロードしたARFFがあります。私はwekaにまったく慣れていませんが、私の理解では、私が持っているarffは機能しているはずですが、分類子のどれもそれで機能していないように見えますか?
arffファイルに追加するのを見逃したものはありますか?どんな助けでも大歓迎です。ありがとう。
java - JavaSimpleDateFormatは問題をWEKAに解析します
正しい日付形式を使用していることを誓いますが、WEKAにロードするときに解析エラーが発生し続けます。
データセットの例を次に示します。
WEKAエラー:
APIドキュメントを使用して再確認しました-何かが足りませんか?
http://download.oracle.com/javase/1.4.2/docs/api/java/text/SimpleDateFormat.html
編集 - - - - - -
トークンをスペースで区切るためのフォーマットされた日付。まだWEKAでボールをプレーしていません...