Kontakt z nami

AI 101

Uczenie nadzorowane i nienadzorowane

mm

W uczeniu maszynowym większość zadań można łatwo podzielić na dwie różne klasy: problemy z uczeniem się pod nadzorem lub problemy z uczeniem się bez nadzoru. W uczeniu nadzorowanym dane mają dołączone etykiety lub klasy, natomiast w przypadku uczenia się bez nadzoru dane nie są oznaczone. Przyjrzyjmy się bliżej, dlaczego to rozróżnienie jest ważne i przyjrzyjmy się niektórym algorytmom związanym z każdym rodzajem uczenia się.

Uczenie nadzorowane i nienadzorowane

Większość zadań uczenia maszynowego należy do domeny Nadzorowana nauka. W algorytmach uczenia się nadzorowanego poszczególne instancje/punkty danych w zbiorze danych mają przypisaną klasę lub etykietę. Oznacza to, że model uczenia maszynowego może nauczyć się rozróżniać, które funkcje są skorelowane z daną klasą, a inżynier uczenia maszynowego może sprawdzić wydajność modelu, sprawdzając, ile instancji zostało prawidłowo sklasyfikowanych. Algorytmy klasyfikacji można wykorzystać do rozróżnienia wielu złożonych wzorców, o ile dane są oznaczone odpowiednimi klasami. Na przykład algorytm uczenia maszynowego może nauczyć się odróżniać różne zwierzęta od siebie na podstawie takich cech, jak „wąsy”, „ogon”, „pazury” itp.

W przeciwieństwie do uczenia się pod nadzoremuczenie się bez nadzoru polega na stworzeniu modelu, który jest w stanie wyodrębnić wzorce z nieoznakowanych danych. Innymi słowy, komputer analizuje cechy wejściowe i sam określa, które cechy i wzorce są najważniejsze. Uczenie się bez nadzoru próbuje znaleźć nieodłączne podobieństwa między różnymi przypadkami. Jeśli algorytm uczenia się nadzorowanego ma na celu umieszczenie punktów danych w znanych klasach, algorytmy uczenia się nienadzorowanego zbadają cechy wspólne dla instancji obiektów i ułożą je w grupy w oparciu o te cechy, zasadniczo tworząc własne klasy.

Przykładami algorytmów uczenia się nadzorowanego są regresja liniowa, regresja logistyczna, K-najbliższych sąsiadów, drzewa decyzyjne i maszyny wektorów nośnych.

Tymczasem niektóre przykłady algorytmów uczenia się bez nadzoru to analiza głównych składowych i grupowanie K-średnich.

Algorytm nadzorowanego uczenia się

regresji liniowej to algorytm, który bierze dwie cechy i wykreśla związek między nimi. Regresja liniowa służy do przewidywania wartości liczbowych w odniesieniu do innych zmiennych numerycznych. Regresja liniowa ma równanie Y = a +bX, gdzie b to nachylenie linii, a a to miejsce, w którym y przecina oś X.

Regresja logistyczna to algorytm klasyfikacji binarnej. Algorytm bada związek między cechami liczbowymi i znajduje prawdopodobieństwo, że instancję można zaklasyfikować do jednej z dwóch różnych klas. Wartości prawdopodobieństwa są „ściśnięte” w kierunku 0 lub 1. Innymi słowy, silne prawdopodobieństwa zbliżą się do 0.99, podczas gdy słabe prawdopodobieństwa zbliżą się do 0.

K-Najbliżsi sąsiedzi przypisuje klasę do nowych punktów danych na podstawie przypisanych klas pewnej wybranej liczby sąsiadów w zestawie treningowym. Liczba sąsiadów branych pod uwagę przez algorytm jest istotna, a zbyt mała lub zbyt duża liczba sąsiadów może spowodować błędną klasyfikację punktów.

Drzewa decyzyjne są rodzajem algorytmu klasyfikacji i regresji. Drzewo decyzyjne działa na zasadzie dzielenia zbioru danych na coraz mniejsze części, aż do momentu, gdy podzbiorów nie będzie można już dalej dzielić, w wyniku czego powstanie drzewo z węzłami i liśćmi. Węzły to miejsca, w których podejmowane są decyzje dotyczące punktów danych przy użyciu różnych kryteriów filtrowania, natomiast liście to instancje, którym przypisano jakąś etykietę (punkt danych, który został sklasyfikowany). Algorytmy drzew decyzyjnych są w stanie obsługiwać zarówno dane liczbowe, jak i kategoryczne. Podziały dokonywane są w drzewie na określone zmienne/cechy.

Wsparcie maszyn wektorowych to algorytm klasyfikacji działający poprzez rysowanie hiperpłaszczyzn, czyli linii separacji, pomiędzy punktami danych. Punkty danych są podzielone na klasy w zależności od tego, po której stronie hiperpłaszczyzny się znajdują. Na płaszczyźnie można narysować wiele hiperpłaszczyzn, dzieląc zbiór danych na wiele klas. Klasyfikator będzie starał się zmaksymalizować odległość między hiperpłaszczyzną nurkowania a punktami po obu stronach płaszczyzny, a im większa odległość między linią a punktami, tym pewniejszy będzie klasyfikator.

Algorytmy uczenia się bez nadzoru

Analiza głównych składowych to technika stosowana do redukcji wymiarowości, co oznacza, że ​​wymiarowość lub złożoność danych jest reprezentowana w prostszy sposób. Algorytm analizy głównych składowych znajduje nowe wymiary danych, które są ortogonalne. Chociaż wymiarowość danych jest zmniejszona, rozbieżności między danymi powinny zostać zachowane w jak największym stopniu. W praktyce oznacza to, że bierze cechy ze zbioru danych i dzieli je na mniejszą liczbę cech, które reprezentują większość danych.

Klastrowanie metodą K-Means to algorytm, który automatycznie grupuje punkty danych w klastry na podstawie podobnych cech. Wzory w zestawie danych są analizowane, a punkty danych dzielone na grupy na podstawie tych wzorców. Zasadniczo K-Means tworzy własne klasy z nieoznakowanych danych. Algorytm K-Means działa poprzez przypisywanie centrów do klastrów lub centroidów i przesuwanie centroidów, aż do znalezienia optymalnej pozycji dla centroidów. Optymalna pozycja to taka, w której odległość między centroidami a otaczającymi punktami danych w klasie jest zminimalizowana. „K” w klastrowaniu metodą K-Means odnosi się do liczby wybranych centroidów.

Podsumowanie

Aby zakończyć, szybko omówmy kluczowe różnice między nimi Uczenie się pod nadzorem i bez nadzoru.

Jak już wspomnieliśmy, w zadaniach uczenia się pod nadzorem dane wejściowe są oznaczone etykietą i znana jest liczba klas. Tymczasem dane wejściowe nie są oznaczone, a liczba klas nie jest znana w przypadkach uczenia się bez nadzoru. Uczenie się bez nadzoru jest zwykle mniej złożone obliczeniowo, podczas gdy uczenie się nadzorowane jest bardziej złożone obliczeniowo. Podczas gdy wyniki uczenia się pod nadzorem są zwykle bardzo dokładne, wyniki uczenia się bez nadzoru są zwykle mniej dokładne/umiarkowanie dokładne.