複数の予測変数を使用して、複数の従属変数を予測したいと考えています。私の理解が正しければ、原則として、それぞれが 1 つの従属変数を予測する一連の線形回帰モデルを作成できますが、従属変数が相関している場合は、多変量回帰を使用する方が理にかなっています。後者をやりたいのですが、方法がわかりません。
これまでのところ、これを具体的にサポートする Python パッケージは見つかりませんでした。私はscikit-learnを試しました.線形回帰モデルの例は、yが配列(観測ごとに1つの従属変数)の場合のみを示していますが、複数のyを処理できるようです. しかし、この「多変量」メソッドの出力を、各従属変数を手動でループし、それらを互いに独立して予測して得た結果と比較すると、結果はまったく同じです。一部の従属変数 (>0.5) の間に強い相関関係があるため、これは当てはまらないと思います。
コードは次のようになりy
ます。n x 1
行列またはn x m
行列とx
、newx
さまざまなサイズの行列 ( の行数x == n
) を使用します。
ols = linear_model.LinearRegression()
ols.fit(x,y)
ols.predict(newx)
この関数は実際に多変量回帰を実行しますか?