8

機械学習では、次のように言います。

  • w 1 x 1 + w 2 x 2 +...+ w n x n線形回帰モデルで、w 1 ,w 2 ....w nは重みで、x 1 ,x 2 ...x 2は機能に対して:
  • w 1 x 1 2 + w 2 x 2 2 +...+ w n x n 2は、非線形 (多項式) 回帰モデルです。

ただし、いくつかの講義で、モデルは重みに基づいて線形であると人々が言うのを見たことがあります。つまり、重みの係数は線形であり、特徴の次数は関係ありません。線形(x 1 ) か多項式(x 1 ) 2)。本当?線形モデルと非線形モデルをどのように区別しますか? 重みまたは特徴値に基づいていますか?

4

3 に答える 3

2

線形モデルと非線形モデルをどのように区別しますか? 重みまたは特徴値に基づいていますか?

「モデルは機能に関して線形/非線形である」でそれについて聞いたり読んだりしただけです。これは通常、興味深いことです。モデルに項 w i 2が含まれていることが、本質的に定数であるため、どのように役立つかわかりません。テスト期間中は機能のみが変更されます。

したがって、線形モデルは次のように表現できるものです。

ここに画像の説明を入力

w iはモデルを定義し、x iは入力です。w iが異なると、モデルが異なります (ただし、それらはすべて特徴に関して線形です)。モデルがそのスキームに適合しない場合、モデルは特徴に関して線形ではありません。

これで、基本的に入力の (手作りの) 非線形変換のみである新しい機能を追加できます。たとえば、モデルを作成できます

ここに画像の説明を入力

これは、入力に関して非線形モデルであると主張できます。ただし、本質的にモデルであると主張することもできます

ここに画像の説明を入力

ここで重要な部分は、手作りであるということだと思います。モデルの能力ではなく、特徴空間を変更しました。したがって、これは依然として線形モデルですが、別の特徴空間にあります。このようにすると、任意のモデルを非線形にすることができます。

結局のところ:それは本当に重要ですか?試験の準備をしているように聞こえます。このような場合は、講師に尋ねて、彼が線形/非線形として定義するものに固執することをお勧めします.

于 2016-05-05T09:46:08.117 に答える
2

どちらの味も存在します。

統計コミュニティに参加している場合、通常は前者です (フィーチャの非線形性、x^2 または e^x など)。たとえば、これを参照してください。

機械学習コミュニティでは、重みに重点が置かれています。機能関数は何でもかまいません (たとえば、SVMのカーネル トリックを参照してください)。

その理由は、さまざまなコミュニティがこれらの同様の問題を解決するためのさまざまなアプローチを持っているためです。統計コミュニティには、より直接的で分析的なアプローチがあります。機械学習の目標は少し異なります (未知の概念空間で複雑なパターンをモデル化する)。

于 2016-05-04T06:18:37.607 に答える