AI 101
教師あり学習と教師なし学習
機械学習では、ほとんどのタスクは、教師あり学習問題または教師なし学習問題という 2 つの異なるクラスのいずれかに簡単に分類できます。教師あり学習では、データにラベルまたはクラスが追加されますが、教師なし学習の場合、データにはラベルが付けられません。この区別がなぜ重要なのかを詳しく見て、それぞれの種類の学習に関連するアルゴリズムのいくつかを見てみましょう。
教師あり学習と教師なし学習
ほとんどの機械学習タスクは次の領域にあります。 教師あり学習。 教師あり学習アルゴリズムでは、データセット内の個々のインスタンス/データ ポイントにクラスまたはラベルが割り当てられます。 これは、機械学習モデルがどの特徴が特定のクラスと相関しているかを区別することを学習でき、機械学習エンジニアは適切に分類されたインスタンスの数を確認することでモデルのパフォーマンスをチェックできることを意味します。 データが適切なクラスでラベル付けされている限り、分類アルゴリズムを使用して多くの複雑なパターンを識別できます。 たとえば、機械学習アルゴリズムは、「ひげ」、「尻尾」、「爪」などの特徴に基づいて、さまざまな動物を互いに区別する方法を学習できます。
教師あり学習とは対照的に、教師なし学習には、ラベルのないデータからパターンを抽出できるモデルの作成が含まれます。 言い換えれば、コンピュータは入力された特徴を分析し、最も重要な特徴とパターンが何であるかを自ら判断します。 教師なし学習では、異なるインスタンス間の固有の類似点を見つけようとします。 教師あり学習アルゴリズムがデータ ポイントを既知のクラスに配置することを目的としている場合、教師なし学習アルゴリズムはオブジェクト インスタンスに共通の特徴を調べ、これらの特徴に基づいてオブジェクト インスタンスをグループに配置し、本質的に独自のクラスを作成します。
教師あり学習アルゴリズムの例には、線形回帰、ロジスティック回帰、K 最近傍法、デシジョン ツリー、サポート ベクター マシンなどがあります。
一方、教師なし学習アルゴリズムの例としては、主成分分析や K 平均法クラスタリングなどがあります。
教師あり学習アルゴリズム
直線回帰 は XNUMX つの特徴を取得し、それらの間の関係をプロットするアルゴリズムです。 線形回帰は、他の数値変数と関連して数値を予測するために使用されます。 線形回帰には Y = a +bX という式があり、b は直線の傾き、a は y が X 軸と交差する位置です。
ロジスティック回帰は、バイナリ分類アルゴリズムです。このアルゴリズムは、数値的特徴間の関係を調べ、インスタンスが 0 つの異なるクラスのいずれかに分類できる確率を見つけます。確率値は 1 または 0.99 に「圧縮」されます。つまり、強い確率は 0 に近づき、弱い確率は XNUMX に近づきます。
K 最近傍法 トレーニング セット内の選択された数の近傍の割り当てられたクラスに基づいて、新しいデータ ポイントにクラスを割り当てます。 アルゴリズムによって考慮される近傍の数は重要であり、近傍が少なすぎるか多すぎると、ポイントが誤って分類される可能性があります。
決定木 分類および回帰アルゴリズムの一種です。デシジョン ツリーは、サブセットがそれ以上分割できなくなるまで、データセットをより小さな部分に分割することで動作し、その結果、ノードとリーフを含むツリーが作成されます。ノードは、さまざまなフィルタリング基準を使用してデータ ポイントに関する決定が行われる場所であり、リーフは、何らかのラベル (分類されたデータ ポイント) が割り当てられたインスタンスです。デシジョン ツリー アルゴリズムは、数値データとカテゴリ データの両方を処理できます。分割は、特定の変数/特徴に関してツリー内で行われます。
サポートベクターマシン は、データ ポイント間に超平面、つまり分離線を描画することによって機能する分類アルゴリズムです。 データ ポイントは、超平面のどちら側にあるかに基づいてクラスに分類されます。 複数の超平面を平面上に描画して、データセットを複数のクラスに分割できます。 分類器は、ダイビング超平面とその平面の両側の点の間の距離を最大化しようとします。線と点の間の距離が大きいほど、分類器の信頼度は高くなります。
教師なし学習アルゴリズム
主成分分析 は次元削減に使用される手法であり、データの次元数または複雑さをより単純な方法で表現することを意味します。 主成分分析アルゴリズムは、直交するデータの新しい次元を見つけます。 データの次元は削減されますが、データ間の分散は可能な限り維持される必要があります。 これが実際に意味することは、データセット内の特徴を取得し、それらをデータの大部分を表す少数の特徴に抽出することです。
K-Means クラスタリングは、類似した特徴に基づいてデータ ポイントをクラスターに自動的にグループ化するアルゴリズムです。データセット内のパターンが分析され、データ ポイントはこれらのパターンに基づいてグループに分割されます。基本的に、K-Means はラベルのないデータから独自のクラスを作成します。K-Means アルゴリズムは、クラスターに中心、つまり重心を割り当て、重心の最適な位置が見つかるまで重心を移動することによって機能します。最適な位置は、クラス内の重心と周囲のデータ ポイント間の距離が最小になる位置です。K-Means クラスタリングの「K」は、選択された重心の数を示します。
製品概要
最後に、次の主な違いを簡単に説明しましょう。 教師あり学習と教師なし学習。
前に説明したように、教師あり学習タスクでは、入力データにラベルが付けられ、クラスの数がわかっています。 一方、教師なし学習の場合、入力データにはラベルが付けられておらず、クラスの数は不明です。 教師なし学習は計算がそれほど複雑ではない傾向にありますが、教師あり学習は計算がより複雑になる傾向があります。 教師あり学習の結果は精度が高い傾向がありますが、教師なし学習の結果は精度が低いか、中程度の精度になる傾向があります。