サポート ベクター マシン (SVM) は、外れ値の検出、回帰、分類タスクに使用される強力で適応性のある教師あり学習アルゴリズムです。これは高次元領域で特に効果的であるため、分類タスクで広く使用されています。
サポート ベクター マシン (SVM) の主な目的は、データ セットを多数のクラスに分割して最大周縁超平面 (MMH) を検出することです。これは 2 つのステップで実行できます。
最初のステップ : サポート ベクター マシンは、最初にクラスを最もよく区別する超平面を反復的に構築します。
ステップ 2: 次に、クラスを最もよく分離する超平面が選択されます。
超平面の寸法は、フィーチャの数に関係します。特徴の数が 2 の場合、超平面は直線になります。特徴量が 3 の場合、超平面は 2 次元平面になります。
超平面を構築するために、サポート ベクター マシン (SVM) は極値ベクトルをサポート ベクターとして使用します。 SVM の目標は、n 次元空間でさまざまなカテゴリのサンプルを離散化するための大きなマージンを持つ理想的な超平面を見つけることです。
Python はサポート ベクター マシン (SVM) 分類を実装します
1. サポート ベクター - 超平面に最も近いデータ ポイントはと呼ばれますサポートベクトル。サポート ベクターを使用して分割線を決定できます。
2. 超平面 - アイテムのセットを複数のカテゴリに分割する空間または決定平面は、超平面と呼ばれます。
3. マージン - さまざまなカテゴリの最も近いデータ ポイント上の 2 本の線の間の距離。
4. 最大マージン - 理想的な超平面は、マージンが最大の超平面です。
サポート ベクター マシン カーネルは、低次元の入力空間を受け取り、それを高次元の空間に変換する関数です。分離不可能な問題を分離可能な 1 つの質問にします。主に非線形分離問題に使用されます。簡単に言うと、カーネルは非常に複雑なデータ変換を行った後、定義されたタグまたは出力に基づいてデータを分離する方法を見つけ出します。
1. 高次元の状況で効果的です
2. サポート ベクター トレーニング ポイントと呼ばれる決定関数を使用するため、非常にメモリ効率が高くなりますサブセット
3. 決定関数にはさまざまなカーネル関数を指定でき、カスタム カーネルも指定できます
以上がサポート ベクター マシン (SVM) アルゴリズムの包括的な紹介の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。