問題タブ [vowpalwabbit]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
performance - VowpalWabbit:違いとスケーラビリティ
入力セットのサイズが大きくなるにつれて、VowpalWabbitの「状態」がどのように維持されるかを確認しようとしています。通常の機械学習環境では、1000個の入力ベクトルがある場合、それらすべてを一度に送信し、モデル構築フェーズが完了するのを待ってから、モデルを使用して新しい予測を作成することを期待します。
VWでは、アルゴリズムの「オンライン」の性質により、このパラダイムがよりパフォーマンスが高く、リアルタイムで調整できるようになっているようです。
このリアルタイムモデル変更はどのように実装されますか?
VWは、時間の経過とともに入力データの合計サイズに関して増加するリソースを使用しますか?つまり、VWモデルにデータを追加すると(小さい場合)、特徴ベクトル入力の累積数が1000、10000、または数百万に増えると、リアルタイム調整の計算に時間がかかり始めますか?
macos - Dylibs と OS X
Mac OS X で vowpal-wabbit (バージョン 6.0) というプログラムを実行しようとしています。
私は自作を使用して、lib ツールや、重要なブーストなど、いくつかのものをインストールしました。
しかし、私はそれを見つけています。
明らかにすべてのブースト ライブラリがあります (lib boost_program_options.dylib を含む)...
バイナリを実行しようとしたときに表示されるエラー メッセージは次のとおりです。
「make」を実行してこのバイナリを最初からビルドすると、同じ(基本的に)エラーが発生します。
だから...私の質問は次のとおりだと思います:コンパイルされたバイナリを取得して libboost_program_options.dylib を「見る」にはどうすればよいですか?または、どうすれば vw (バージョン 6.0) を os x lion で実行できますか。
machine-learning - VowpalWabbitのBoostライブラリへの依存によるエラー
私はvowpalwobbitをインストールしようとしていますが、makeファイルを実行すると失敗し、次のようにスローされます。
次に、-L / usr / local / libを指定して、ここにBoostライブラリへのリンクを追加しました。
今、私は次のエラーを受け取ります:
c++ - Windows7で使用するためにubuntuでvowpal-wabbitをコンパイルします
同じマシンにインストールされたWindows 7
ラップトップがあります。Ubuntu 12.04
ソース()からプログラムをコンパイルしようとしていますVowPal Wabbit
。使ってみCygwin
ましたが、うまくいきませんでした。Ubuntu 12.04
コンパイラを機能させるためのアクセス権を取得するためにインストールすることになりました。
それはUbuntu
側でうまくいきましたが、コンパイルされたファイルを持ち込む方法があるかどうか私は興味がありますWindows
。それは私が実際に私の仕事のほとんどを行う場所です。より具体的には、プログラムはマシンUbuntu
上で機能的にコンパイルされますか?Windows
助言がありますか?
c++ - 誰かがWindows7マシンでVowpalWabbitを正常にコンパイルしたことがありますか?
私はWindows7マシンでVowpalWabbitをコンパイルしようとしていますが、Netbeans、Cygwin、およびMinGWを試した後、さらに実現可能なものを試しているのではないかと思い始めています。
上記のそれぞれには、sys/socket.hなどのウィンドウ用に設計されていない**.hファイルが必要です。
実際にこれを行ったことがある人は、私は何か提案をいただければ幸いです。
r - データフレームからgzipファイルを書き込む
データフレームをgzipファイルに書き込もうとしていますが、問題があります。
これが私のコード例です:
エラー
writeLines(df1)
:無効な'テキスト'引数
助言がありますか?
編集:私が書き込もうとしている文字ベクトルの行の例は次のとおりです。
クラスラベル/y変数は「|」によってx変数から分離され、変数名は「:」および変数間のスペースによって値から分離されます。
EDIT2:質問の文言/形式についてお詫びしますが、結果は次のとおりです。古い方法:
新しい方法:
私がこれを理解するのを手伝ってくれてありがとう。
vowpalwabbit - 相互検証に関して、Vowpal Wabbit に関するいくつかの指針が必要です
私の目標は、パラメーター空間でさまざまな VW モデルに対してグリッド検索を行うことです (さまざまな損失関数や正則化などを試します)。モデルは複数のパスを使用できるため、クロス検証を使用したいと考えています。独自の相互検証コードを (おそらく bash スクリプトとして) 実装する必要があるのか、それとも車輪を再発明するのか疑問に思っています。これが以前に行われたかどうか、または続行するための最良の方法についての指針は役に立ちます。私は、bash スクリプトでクロス検証を実装し、GNU 並列を使用してグリッド検索を並列化することを検討していました。
vowpalwabbit - vowpal wabbit で例の重みを設定するための実用的なガイドライン
データ セット (6 つのターゲット クラス) で複数クラスの分類の問題があります。トレーニング データのクラス ラベルの分布は偏っています。以下は、各クラス ラベル (1 ~ 6) の分布です。
vowpal wabbit の oaa スキームを使用して分類し、各例でデフォルトの重み 1.0 を試しました。ただし、ほとんどのモデルでは、これはモデルが評価のすべての例で 1.0 を予測するという結果になります (ラベル 1 はトレーニング セットで非常に大きな表現を持っているため)。
分類子のパフォーマンスを向上させるために、各クラスの例に適用できるさまざまな重みを試してみます。
各例の重みを決定するためのテクニックに関する指針や実用的なヒントは非常に役立ちます。考えられる手法の 1 つは、頻度に応じて逆比率で例を重み付けすることでした。残念ながら、これにより、分類器がラベル 2 および 3 に大きく偏り、評価のほとんどすべてに対して 2 および 3 を予測する結果になるようです。
モデルの選択は、重みの決定に影響しますか。私はニューラル ネットワークとロジスティックおよびヒンジ損失関数を実験しています。