AI 101
Co to są sieci neuronowe?

Co to są sztuczne sieci neuronowe (ANNs)?
Wiele z największych postępów w dziedzinie sztucznej inteligencji jest napędzanych przez sztuczne sieci neuronowe. Sztuczne sieci neuronowe (ANNs) są połączeniem funkcji matematycznych połączonych w formacie zainspirowanym sieciami neuronowymi występującymi w ludzkim mózgu. Te ANNs są w stanie wyodrębnić złożone wzorce z danych, stosując te wzorce do niewidocznych danych w celu sklasyfikowania/rozpoznania danych. W ten sposób maszyna „uczy się”. To szybki przegląd sieci neuronowych, ale przyjrzyjmy się im bliżej, aby lepiej zrozumieć, co to są i jak działają.
Wielowarstwowy Perceptron Wyjaśniony
Przed przejściem do bardziej złożonych sieci neuronowych, przyjrzymy się prostszej wersji ANNs, wielowarstwowemu perceptronowi (MLP).

Wyobraź sobie linię produkcyjną w fabryce. Na tej linii produkcyjnej jeden pracownik otrzymuje przedmiot, wykonuje pewne dostosowania i przekazuje go do następnego pracownika w linii, który wykonuje to samo. Ten proces trwa, aż ostatni pracownik w linii doda ostatnie szlify przedmiotowi i umieści go na taśmie, która zabierze go z fabryki. W tej analogii istnieją多 warstwy w linii produkcyjnej, a produkty poruszają się między warstwami, gdy przechodzą od pracownika do pracownika. Linia produkcyjna ma również punkt wejścia i wyjścia.
Wielowarstwowy perceptron można uznać za bardzo prostą linię produkcyjną, składającą się z trzech warstw: warstwy wejścia, warstwy ukrytej i warstwy wyjścia. Warstwa wejścia to miejsce, w którym dane są wprowadzane do MLP, a w warstwie ukrytej pewna liczba „pracowników” obsługuje dane, zanim przekaże je do warstwy wyjścia, która przekazuje produkt do zewnętrznego świata. W przypadku MLP ci pracownicy nazywani są „neuronami” (lub czasem węzłami) i gdy obsługują dane, manipulują nimi za pomocą szeregu funkcji matematycznych.
W sieci istnieją struktury łączące węzeł z węzłem, zwane „wagami”. Wagi są założeniem dotyczącym tego, jak punkty danych są powiązane, gdy poruszają się przez sieć. Innymi słowy, wagi odzwierciedlają poziom wpływu, jaki jeden neuron ma na inny neuron. Wagi przechodzą przez „funkcję aktywacji”, gdy opuszczają bieżący węzeł, co jest rodzajem funkcji matematycznej, która transformuje dane. Przekształcają liniowe dane w nieliniowe reprezentacje, co umożliwia sieci analizowanie złożonych wzorców.
Analogia do ludzkiego mózgu wynikająca z „sztucznej sieci neuronowej” wynika z faktu, że neurony, które tworzą ludzki mózg, są połączone w podobny sposób, jak węzły w ANN.
Chociaż wielowarstwowe perceptrony istnieją od lat 40., istniało wiele ograniczeń, które uniemożliwiały im być szczególnie użytecznymi. Jednak w ciągu ostatnich kilku dekad opracowano technikę zwana „wsteczną propagacją”, która pozwoliła sieciom dostosowywać wagi neuronów i tym samym uczyć się znacznie skuteczniej. Wsteczna propagacja zmienia wagi w sieci neuronowej, umożliwiając sieci lepiej uchwycić rzeczywiste wzorce w danych.
Głębokie Sieci Neuronowe
Głębokie sieci neuronowe przyjmują podstawową formę MLP i rozwijają ją, dodając więcej warstw ukrytych w środku modelu. Zamiast istnienia warstwy wejścia, warstwy ukrytej i warstwy wyjścia, istnieją wiele warstw ukrytych w środku, a dane wyjściowe z jednej warstwy ukrytej stają się danymi wejściowymi dla następnej warstwy ukrytej, aż dane przemieszczają się przez całą sieć i zostaną zwrócone.
Wiele warstw ukrytych głębokiej sieci neuronowej może interpretować bardziej złożone wzorce niż tradycyjny wielowarstwowy perceptron. Różne warstwy głębokiej sieci neuronowej uczą się wzorców różnych części danych. Na przykład, jeśli dane wejściowe składają się z obrazów, pierwsza część sieci może interpretować jasność lub ciemność pikseli, podczas gdy późniejsze warstwy wybierają kształty i krawędzie, które mogą być użyte do rozpoznania obiektów na obrazie.
Różne Rodzaje Sieci Neuronowych

Istnieją różne rodzaje sieci neuronowych, a każdy z nich ma swoje własne zalety i wady (i dlatego mają swoje własne przypadki użycia). Rodzaj głębokiej sieci neuronowej opisany powyżej jest najczęstszym rodzajem sieci neuronowej i często nazywany jest siecią neuronową feedforward.
Jedną z odmian sieci neuronowych jest Sieć Neuronowa Rekurencyjna (RNN). W przypadku Sieci Neuronowej Rekurencyjnej mechanizmy pętli są używane do przechowywania informacji z poprzednich stanów analizy, co oznacza, że mogą interpretować dane, w których kolejność ma znaczenie. RNN są przydatne w wyodrębnianiu wzorców z sekwencyjnych/chronologicznych danych. Sieci Neuronowe Rekurencyjne mogą być jednorozwojowe lub dwukierunkowe. W przypadku sieci neuronowej dwukierunkowej sieć może pobierać informacje z późniejszych części sekwencji, a także z wcześniejszych części sekwencji. Ponieważ sieć neuronowa dwukierunkowa bierze pod uwagę więcej informacji, lepiej potrafi wyodrębnić odpowiednie wzorce z danych.
Sieć Neuronowa Wielowarstwowa jest specjalnym rodzajem sieci neuronowej, która jest zdolna do interpretowania wzorców występujących w obrazach. Sieć Neuronowa Wielowarstwowa działa, przechodząc filtr przez piksele obrazu i uzyskując numeryczną reprezentację pikseli w obrazie, którą może następnie analizować w celu wykrycia wzorców. Sieć Neuronowa Wielowarstwowa jest zorganizowana w taki sposób, że warstwy wielowarstwowe, które wyciągają piksele z obrazu, pojawiają się jako pierwsze, a następnie gęsto połączone warstwy feedforward, które będą tak naprawdę uczyć się rozpoznawać obiekty, pojawiają się po tym.












