3

ここがこれを尋ねるのに最適な場所かどうかはわかりませんが、皆さんは過去に私のCSの宿題をたくさん手伝ってくれたので、試してみようと思います。

いくつかの従属変数を盲目的に組み合わせて、外部変数との最適な線形フィットを生成するインデックスを作成するアルゴリズムを探しています。基本的に、外部変数と最もよく相関するインデックスが作成されるまで、さまざまな数学演算子を使用して従属変数を組み合わせたり、それぞれを含めるか含めないかなどを行います。

誰かが以前にこのようなものを見たり聞いたりしたことがありますか?正しい方向や質問する場所を教えていただければ幸いです。ありがとう。

4

3 に答える 3

1

多変量線形回帰または多重回帰を実行しようとしているようです。これを行うための最も簡単な方法 (読み取り: 精度は低くなります) は、各コンポーネント変数の線形回帰直線を個別に計算し、各直線の加重平均を行うことです。それを超えると、私はほとんど役に立たないのではないかと心配しています。

于 2012-06-29T15:19:30.770 に答える
0

あなたが求めているのは、本質的に回帰分析の全体です。

これは線形回帰が行うことであり、「機械学習」が行うことのかなりの部分です (機械学習は基本的に、より複雑な回帰および分類アルゴリズムの名前にすぎません)。さまざまなトレードオフを伴う数百または数千の異なるアプローチがありますが、基本的なアプローチはしばしば非常にうまく機能します。

さらに学習したい場合は、機械学習に関するコーセラコースが、これをより深く理解するのに最適な場所です。

于 2012-08-23T06:04:31.820 に答える
0

これは、複数の説明変数を使用した単純な線形回帰のようです。ここでの含意は、計算アプローチを使用しているということなので、説明変数の可能なすべての組み合わせを使用して線形モデルをデータに適用するのと同じくらい簡単なことを行うことができます(相互作用効果を含めたいかどうかはあなたの選択です)。適合度測定 (R^2 は一例にすぎません) を使用して、適合する各モデルの適合度をランク付けしますか?? モデルの品質は、多くの分野でやや主観的なものでもあります。3 つの変数のみを含むはるかに単純なモデルよりも適合度が適度に向上するだけであれば、15 の変数を含むモデルを拒否できます。まだ読んでいない場合は、次のテキストで多くの有用な提案を見つけることができると確信しています。

Draper, NR および Smith, H. (1998).Applied Regression Analysis Wiley Series in Probability and Statistics

モデル選択の LASSO メソッドについては、Google で検索してみてください。

于 2012-06-30T11:42:48.607 に答える