- Terminologia (A do D)
- Kontrola zdolności AI
- Operacje AI
- Albumentacje
- Wydajność aktywów
- Autokoder
- Propagacja wsteczna
- Twierdzenie Bayesa
- Big Data
- Chatbot: przewodnik dla początkujących
- Myślenie obliczeniowe
- Wizja komputerowa
- Macierz zamieszania
- Konwolucyjne sieci neuronowe
- Bezpieczeństwo cybernetyczne
- Tkanina danych
- Opowiadanie historii
- Nauka danych
- Magazyn danych
- Drzewo decyzyjne
- Deepfakes
- głęboki Learning
- Uczenie się o głębokim wzmocnieniu
- DevOps
- DevSecOps
- Modele dyfuzyjne
- Cyfrowy bliźniak
- Redukcja wymiarowości
- Terminologia (E do K)
- Sztuczna inteligencja
- Emocje AI
- Nauka zespołowa
- Etyczne hakowanie
- ETL
- Wytłumaczalne AI
- Sfederowane uczenie się
- FinOps
- generatywna sztuczna inteligencja
- Generatywna sieć przeciwników
- Generatywny a dyskryminacyjny
- Wzmocnienie gradientu
- Gradientowe zejście
- Nauka kilku strzałów
- Klasyfikacja obrazu
- Operacje IT (ITops)
- Automatyzacja incydentów
- Inżynieria wpływu
- Klastrowanie K-średnich
- K-Najbliżsi sąsiedzi
- Terminologia (od L do Q)
- Terminologia (od R do Z)
- Uczenie się ze wzmocnieniem
- Odpowiedzialna sztuczna inteligencja
- RLHF
- Automatyzacja procesów robotycznych
- Strukturalne vs niestrukturalne
- Analiza sentymentów
- Nadzorowany kontra bez nadzoru
- Wsparcie maszyn wektorowych
- Dane syntetyczne
- Media syntetyczne
- Klasyfikacja tekstu
- TinyML
- Przenieś naukę
- Transformatorowe sieci neuronowe
- Test Turinga
- Wyszukiwanie podobieństwa wektorów
AI 101
Co to jest uczenie maszynowe?
Spis treści
Uczenie maszynowe to jedna z najszybciej rozwijających się dziedzin technologii, ale pomimo tego, jak często mówi się o „uczeniu maszynowym”, zrozumienie, czym dokładnie jest uczenie maszynowe, może być trudne.
Nauczanie maszynowe nie odnosi się tylko do jednej rzeczy, jest to ogólny termin, który można zastosować do wielu różnych koncepcji i technik. Zrozumienie uczenia maszynowego oznacza znajomość różnych form analizy modeli, zmiennych i algorytmów. Przyjrzyjmy się bliżej uczeniu maszynowemu, aby lepiej zrozumieć, co obejmuje.
Co to jest uczenie maszynowe?
Chociaż termin uczenie maszynowe można zastosować do wielu różnych rzeczy, ogólnie rzecz biorąc, termin ten odnosi się do umożliwienia komputerowi wykonywania zadań bez otrzymywania w tym celu wyraźnych instrukcji „wiersz po wierszu”. Specjalista ds. uczenia maszynowego nie musi zapisywać wszystkich kroków niezbędnych do rozwiązania problemu, ponieważ komputer jest w stanie „uczyć się” poprzez analizowanie wzorców występujących w danych i uogólnianie tych wzorców na nowe dane.
Systemy uczenia maszynowego składają się z trzech podstawowych części:
- Wejścia
- Algorytmy
- Wyjścia
Dane wejściowe to dane wprowadzane do systemu uczenia maszynowego, a dane wejściowe można podzielić na etykiety i funkcje. Cechy to istotne zmienne, zmienne, które będą analizowane w celu poznania wzorców i wyciągnięcia wniosków. Natomiast etykiety to klasy/opisy nadawane poszczególnym instancjom danych.
Funkcje i etykiety mogą być używane w przypadku dwóch różnych typów problemów z uczeniem maszynowym: uczenia się nadzorowanego i uczenia się bez nadzoru.
Uczenie się bez nadzoru a nadzorowane
In Nadzorowana nauka, danym wejściowym towarzyszy podstawowa prawda. Nadzorowane problemy uczenia się mają prawidłowe wartości wyjściowe jako część zbioru danych, więc oczekiwane klasy są znane z góry. Dzięki temu analityk danych może sprawdzić wydajność algorytmu, testując dane na testowym zbiorze danych i sprawdzając, jaki procent elementów został poprawnie sklasyfikowany.
W przeciwieństwie, uczenie się bez nadzoru Problemy nie są opatrzone etykietami prawdy. Algorytm uczenia maszynowego przeszkolony do wykonywania zadań uczenia się bez nadzoru musi być w stanie sam wywnioskować odpowiednie wzorce z danych.
Algorytmy uczenia się nadzorowanego są zwykle używane do rozwiązywania problemów klasyfikacyjnych, w których istnieje duży zbiór danych wypełniony instancjami, które należy posortować na jedną z wielu różnych klas. Innym rodzajem uczenia się nadzorowanego jest zadanie regresji, w którym wartość wyjściowa algorytmu ma charakter ciągły, a nie kategoryczny.
Tymczasem algorytmy uczenia się bez nadzoru są wykorzystywane do zadań takich jak szacowanie gęstości, grupowanie i uczenie się reprezentacji. Te trzy zadania wymagają modelu uczenia maszynowego, aby wywnioskować strukturę danych. Modelowi nie przydzielono żadnych predefiniowanych klas.
Przyjrzyjmy się pokrótce niektórym z najpopularniejszych algorytmów stosowanych zarówno w uczeniu się bez nadzoru, jak iw uczeniu się z nadzorem.
Rodzaje uczenia się pod nadzorem
Typowe algorytmy nadzorowanego uczenia się obejmują:
- Naiwny Bayes
- Wsparcie maszyn wektorowych
- Regresja logistyczna
- Losowe lasy
- Sztuczne sieci neuronowe
Wsparcie maszyn wektorowych to algorytmy dzielące zbiór danych na różne klasy. Punkty danych są grupowane w klastry poprzez rysowanie linii oddzielających klasy od siebie. Punkty znalezione po jednej stronie linii będą należeć do jednej klasy, natomiast punkty po drugiej stronie linii będą należeć do innej klasy. Maszyny wektorów nośnych mają na celu maksymalizację odległości między linią a punktami znajdującymi się po obu stronach linii, a im większa odległość, tym klasyfikator ma większą pewność, że punkt należy do jednej klasy, a nie innej.
Regresja logistyczna to algorytm stosowany w zadaniach klasyfikacji binarnej, gdy punkty danych muszą zostać sklasyfikowane jako należące do jednej z dwóch klas. Regresja logistyczna działa poprzez oznaczenie punktu danych jako 1 lub 0. Jeśli postrzegana wartość punktu danych wynosi 0.49 lub mniej, jest on klasyfikowany jako 0, natomiast jeśli wynosi 0.5 lub więcej, jest klasyfikowany jako 1.
Algorytmy drzew decyzyjnych działają poprzez dzielenie zbiorów danych na coraz mniejsze fragmenty. Dokładne kryteria podziału danych zależą od inżyniera uczenia maszynowego, ale ostatecznym celem jest podzielenie danych na pojedyncze punkty danych, które następnie zostaną sklasyfikowane za pomocą klucza.
Algorytm losowego lasu to zasadniczo wiele pojedynczych klasyfikatorów drzewa decyzyjnego połączonych ze sobą w jeden bardziej wydajny klasyfikator.
Połączenia Naiwny klasyfikator Bayesa oblicza prawdopodobieństwo wystąpienia danego punktu danych na podstawie prawdopodobieństwa wystąpienia wcześniejszego zdarzenia. Opiera się na twierdzeniu Bayesa i dzieli punkty danych na klasy na podstawie ich obliczonego prawdopodobieństwa. Implementując naiwny klasyfikator Bayesa zakłada się, że wszystkie predyktory mają taki sam wpływ na wynik klasy.
An Sztuczna sieć neuronowalub perceptron wielowarstwowy to algorytmy uczenia maszynowego inspirowane strukturą i funkcją ludzkiego mózgu. Sztuczne sieci neuronowe wzięły swoją nazwę od faktu, że składają się z wielu połączonych ze sobą węzłów/neuronów. Każdy neuron manipuluje danymi za pomocą funkcji matematycznej. W sztucznych sieciach neuronowych istnieją warstwy wejściowe, warstwy ukryte i warstwy wyjściowe.
Ukryta warstwa sieci neuronowej to miejsce, w którym dane są faktycznie interpretowane i analizowane pod kątem wzorców. Innymi słowy, jest to miejsce, w którym algorytm się uczy. Więcej połączonych ze sobą neuronów tworzy bardziej złożone sieci zdolne do uczenia się bardziej złożonych wzorców.
Rodzaje uczenia się bez nadzoru
Algorytmy uczenia się bez nadzoru obejmują:
- Grupowanie K-średnich
- Autoencodery
- Analiza głównych składowych
Grupowanie K-średnich to technika klasyfikacji bez nadzoru, która polega na rozdzielaniu punktów danych na klastry lub grupy w oparciu o ich cechy. Grupowanie K-średnich analizuje cechy znalezione w punktach danych i wyróżnia w nich wzorce, które sprawiają, że punkty danych znalezione w danej klasie klastra są bardziej do siebie podobne niż do klastrów zawierających pozostałe punkty danych. Osiąga się to poprzez umieszczenie możliwych środków klastra lub centroid na wykresie danych i ponowne przypisanie położenia centroidy, aż do znalezienia pozycji, która minimalizuje odległość między centroidą a punktami należącymi do klasy tej centroidy. Badacz może określić żądaną liczbę skupień.
Analiza głównych składowych to technika, która redukuje dużą liczbę cech/zmiennych do mniejszej przestrzeni cech/mniejszej liczby cech. Do zachowania wybierane są „główne elementy” punktów danych, podczas gdy pozostałe cechy są ściskane w mniejszej reprezentacji. Zależność między oryginalnymi zestawami danych zostaje zachowana, ale ponieważ złożoność punktów danych jest prostsza, dane łatwiej jest określić ilościowo i opisać.
Autoencodery to wersje sieci neuronowych, które można zastosować do zadań uczenia się bez nadzoru. Autoenkodery są w stanie pobierać nieoznakowane dane w dowolnej formie i przekształcać je w dane, z których może korzystać sieć neuronowa, zasadniczo tworząc własne oznakowane dane szkoleniowe. Celem autoenkodera jest konwersja danych wejściowych i odbudowanie ich tak dokładnie, jak to możliwe, więc motywacją sieci jest określenie, które funkcje są najważniejsze i wyodrębnienie ich.
Bloger i programista specjalizujący się w Nauczanie maszynowe i głęboki Learning tematy. Daniel ma nadzieję pomóc innym wykorzystać moc sztucznej inteligencji dla dobra społecznego.