stub Czym są sieci neuronowe? - Unite.AI
Kontakt z nami
Kurs mistrzowski AI:

AI 101

Co to są sieci neuronowe?

mm
Zaktualizowano on

Co to są sztuczne sieci neuronowe (ANN)?

Wiele z największych osiągnięć w dziedzinie sztucznej inteligencji to: napędzane przez sztuczne sieci neuronowe. Sztuczne sieci neuronowe (ANN) to połączenie funkcji matematycznych w formacie inspirowanym sieciami neuronowymi występującymi w ludzkim mózgu. Te sieci ANN potrafią wyodrębniać złożone wzorce z danych i stosować je do niewidocznych danych w celu ich klasyfikacji/rozpoznania. W ten sposób maszyna „uczy się”. Oto krótki przegląd sieci neuronowych, ale przyjrzyjmy się im bliżej, aby lepiej zrozumieć, czym są i jak działają.

Wyjaśnienie perceptronu wielowarstwowego

Zanim przyjrzymy się bardziej złożonym sieciom neuronowym, poświęcimy chwilę na przyjrzenie się prostej wersji SSN, perceptron wielowarstwowy (MLP).

Wyobraź sobie linię montażową w fabryce. Na tej linii montażowej jeden pracownik otrzymuje przedmiot, wprowadza w nim pewne poprawki, a następnie przekazuje go następnemu pracownikowi na linii, który robi to samo. Proces ten trwa do momentu, aż ostatni pracownik w linii dokończy dopracowanie przedmiotu i założy go na pasek, który wyprowadzi go z fabryki. W tej analogii linia montażowa składa się z wielu „warstw”, a produkty przemieszczają się między warstwami, przechodząc od pracownika do pracownika. Linia montażowa ma również punkt wejścia i punkt wyjścia.

Perceptron wielowarstwowy można traktować jako bardzo prostą linię produkcyjną złożoną z trzech warstw: warstwy wejściowej, warstwy ukrytej i warstwy wyjściowej. Warstwa wejściowa to miejsce, w którym dane są wprowadzane do MLP, a w warstwie ukrytej pewna liczba „pracowników” przetwarza dane przed przekazaniem ich do warstwy wyjściowej, która przekazuje produkt światu zewnętrznemu. W przypadku MLP pracownicy ci nazywani są „neuronami” (lub czasami węzłami), a gdy przetwarzają dane, manipulują nimi za pomocą szeregu funkcji matematycznych.

W obrębie sieci istnieją struktury łączące węzeł z węzłem zwane „Wagi”. Wagi stanowią założenie dotyczące powiązania punktów danych podczas ich przemieszczania się w sieci. Inaczej mówiąc, wagi odzwierciedlają poziom wpływu, jaki jeden neuron ma na inny. Po opuszczeniu bieżącego węzła wagi przechodzą przez „funkcję aktywacji”, która jest rodzajem funkcji matematycznej przekształcającej dane. Przekształcają dane liniowe w reprezentacje nieliniowe, co umożliwia sieci analizę złożonych wzorców.

Analogia do ludzkiego mózgu wynikająca ze „sztucznej sieci neuronowej” wynika z faktu, że neurony tworzące ludzki mózg są połączone ze sobą w podobny sposób, jak połączone są węzły w SSN.

Chociaż perceptrony wielowarstwowe istnieją od lat czterdziestych XX wieku, istniało szereg ograniczeń, które uniemożliwiały ich szczególną przydatność. Jednakże w ciągu ostatnich kilku dekad technika zwana „propagacja wsteczna”, który umożliwił sieciom dostosowanie wag neuronów i dzięki temu uczenie się znacznie efektywniej. Propagacja wsteczna zmienia wagi w sieci neuronowej, umożliwiając sieci lepsze uchwycenie rzeczywistych wzorców w danych.

Głębokie sieci neuronowe

Głębokie sieci neuronowe przyjmują podstawową formę MLP i powiększają ją, dodając więcej ukrytych warstw w środku modelu. Zatem zamiast warstwy wejściowej, warstwy ukrytej i warstwy wyjściowej, w środku znajduje się wiele warstw ukrytych, a wyniki jednej warstwy ukrytej stają się danymi wejściowymi kolejnej warstwy ukrytej, dopóki dane nie dotrą do końca przez sieć i został zwrócony.

Wiele ukrytych warstw głębokiej sieci neuronowej jest w stanie interpretować bardziej złożone wzorce niż tradycyjny perceptron wielowarstwowy. Różne warstwy głębokiej sieci neuronowej uczą się wzorców różnych części danych. Na przykład, jeśli dane wejściowe składają się z obrazów, pierwsza część sieci może interpretować jasność lub ciemność pikseli, podczas gdy późniejsze warstwy będą wybierać kształty i krawędzie, które można wykorzystać do rozpoznawania obiektów na obrazie.

Różne typy sieci neuronowych

Istnieją różne typy sieci neuronowych, a każdy z różnych typów sieci neuronowych ma swoje zalety i wady (a zatem własne przypadki użycia). Opisany powyżej typ głębokiej sieci neuronowej jest najpowszechniejszym typem sieci neuronowej i często określa się go mianem sieci neuronowej ze sprzężeniem zwrotnym.

Jedną z odmian sieci neuronowych jest Recurrent Neural Network (RNN). W przypadku rekurencyjnych sieci neuronowych mechanizmy zapętlania służą do przechowywania informacji z poprzednich stanów analizy, co oznacza, że ​​mogą interpretować dane tam, gdzie kolejność ma znaczenie. RNN są przydatne w wyprowadzaniu wzorców z danych sekwencyjnych/chronologicznych. Rekurencyjne sieci neuronowe mogą być jednokierunkowe lub dwukierunkowe. W przypadku dwukierunkowej sieci neuronowej sieć może pobierać informacje z dalszej części sekwencji, jak również z wcześniejszych części sekwencji. Ponieważ dwukierunkowy RNN uwzględnia więcej informacji, jest w stanie lepiej wyciągnąć właściwe wzorce z danych.

Konwolucyjna sieć neuronowa to specjalny typ sieci neuronowej, która jest biegła w interpretowaniu wzorców występujących na obrazach. CNN działa w ten sposób, że przepuszcza filtr przez piksele obrazu i uzyskuje numeryczną reprezentację pikseli obrazu, którą następnie może analizować pod kątem wzorców. Struktura CNN jest taka, że ​​najpierw pojawiają się warstwy splotowe, które wyciągają piksele z obrazu, a następnie gęsto połączone warstwy przekazujące dalej, czyli te, które faktycznie nauczą się rozpoznawać obiekty.

Bloger i programista specjalizujący się w Nauczanie maszynowe i głęboki Learning tematy. Daniel ma nadzieję pomóc innym wykorzystać moc sztucznej inteligencji dla dobra społecznego.