ciot Ce sunt rețelele neuronale? - Unite.AI
Conectează-te cu noi
Masterclass AI:

AI 101

Ce sunt rețelele neuronale?

mm
Actualizat on

Ce sunt rețelele neuronale artificiale (ANN)?

Multe dintre cele mai mari progrese ale AI sunt condus de rețele neuronale artificiale. Rețelele neuronale artificiale (ANN) sunt conexiunea dintre funcții matematice unite într-un format inspirat de rețelele neuronale găsite în creierul uman. Aceste ANN-uri sunt capabile să extragă modele complexe din date, aplicând aceste modele datelor nevăzute pentru a clasifica/recunoaște datele. În acest fel, mașina „învață”. Aceasta este o scurtă prezentare a rețelelor neuronale, dar haideți să aruncăm o privire mai atentă asupra rețelelor neuronale pentru a înțelege mai bine ce sunt acestea și cum funcționează.

Perceptronul multistrat explicat

Înainte de a ne uita la rețele neuronale mai complexe, vom lua un moment pentru a ne uita la o versiune simplă a unui ANN, un perceptron multistrat (MLP).

Imaginați-vă o linie de asamblare la o fabrică. Pe această linie de asamblare, un lucrător primește un articol, îi face unele ajustări și apoi îl transmite următorului lucrător din linie care face același lucru. Acest proces continuă până când ultimul muncitor din linie pune obiectul final și îl pune pe o curea care îl va scoate din fabrică. În această analogie, există mai multe „straturi” la linia de asamblare, iar produsele se deplasează între straturi pe măsură ce se deplasează de la muncitor la muncitor. Linia de asamblare are, de asemenea, un punct de intrare și un punct de ieșire.

Un Perceptron cu mai multe straturi poate fi gândit ca o linie de producție foarte simplă, compusă din trei straturi în total: un strat de intrare, un strat ascuns și un strat de ieșire. Stratul de intrare este locul în care datele sunt introduse în MLP, iar în stratul ascuns un număr de „lucrători” gestionează datele înainte de a le trece în stratul de ieșire care dă produsul lumii exterioare. În cazul unui MLP, acești lucrători sunt numiți „neuroni” (sau uneori noduri) și atunci când manipulează datele, le manipulează printr-o serie de funcții matematice.

În cadrul rețelei, există structuri care conectează nod la nod numite „greutăți”. Greutățile sunt o ipoteză despre modul în care punctele de date sunt legate pe măsură ce se deplasează prin rețea. Cu alte cuvinte, ponderile reflectă nivelul de influență pe care un neuron îl are asupra altui neuron. Greutățile trec printr-o „funcție de activare” pe măsură ce părăsesc nodul curent, care este un tip de funcție matematică care transformă datele. Ele transformă datele liniare în reprezentări neliniare, ceea ce permite rețelei să analizeze modele complexe.

Analogia cu creierul uman implicată de „rețeaua neuronală artificială” provine din faptul că neuronii care alcătuiesc creierul uman sunt uniți într-un mod similar cu modul în care nodurile dintr-o ANN sunt conectate.

În timp ce perceptronii multistrat au existat încă din anii 1940, au existat o serie de limitări care le-au împiedicat să fie deosebit de utile. Cu toate acestea, pe parcursul ultimelor două decenii, o tehnică numită „propagarea înapoi” a fost creat care a permis rețelelor să ajusteze greutățile neuronilor și astfel să învețe mult mai eficient. Propagarea inversă modifică ponderile din rețeaua neuronală, permițând rețelei să capteze mai bine modelele reale din date.

Rețele profunde neuronale

Rețelele neuronale profunde iau forma de bază a MLP și o fac mai mare adăugând mai multe straturi ascunse în mijlocul modelului. Deci, în loc să existe un strat de intrare, un strat ascuns și un strat de ieșire, există multe straturi ascunse în mijloc, iar ieșirile unui strat ascuns devin intrările pentru următorul strat ascuns până când datele au ajuns până la capăt. prin rețea și a fost returnat.

Straturile multiple ascunse ale unei rețele neuronale profunde sunt capabile să interpreteze modele mai complexe decât perceptronul multistrat tradițional. Diferite straturi ale rețelei neuronale profunde învață tiparele diferitelor părți ale datelor. De exemplu, dacă datele de intrare constau din imagini, prima porțiune a rețelei ar putea interpreta luminozitatea sau întunericul pixelilor, în timp ce straturile ulterioare vor alege forme și margini care pot fi folosite pentru a recunoaște obiectele din imagine.

Diferite tipuri de rețele neuronale

Există diferite tipuri de rețele neuronale și fiecare dintre diferitele tipuri de rețele neuronale are propriile sale avantaje și dezavantaje (și, prin urmare, propriile cazuri de utilizare). Tipul de rețea neuronală profundă descris mai sus este cel mai comun tip de rețea neuronală și este adesea denumită rețea neuronală feedforward.

O variantă a rețelelor neuronale este rețeaua neuronală recurentă (RNN). În cazul rețelelor neuronale recurente, mecanismele de buclă sunt folosite pentru a păstra informații din stările anterioare de analiză, ceea ce înseamnă că pot interpreta datele acolo unde ordinea contează. RNN-urile sunt utile în derivarea tiparelor din date secvenţiale/cronologice. Rețelele neuronale recurente pot fi fie unidirecționale, fie bidirecționale. În cazul unei rețele neuronale bidirecționale, rețeaua poate prelua informații de mai târziu în secvență, precum și porțiuni anterioare ale secvenței. Deoarece RNN-ul bidirecțional ia în considerare mai multe informații, este mai capabil să deseneze modelele potrivite din date.

O rețea neuronală convoluțională este un tip special de rețea neuronală care este abil să interpreteze tiparele găsite în imagini. Un CNN funcționează prin trecerea unui filtru peste pixelii imaginii și realizând o reprezentare numerică a pixelilor din imagine, pe care apoi o poate analiza pentru modele. Un CNN este structurat astfel încât straturile convoluționale care scot pixelii din imagine vin primele, iar apoi vin straturile de feed-forward dens conectate, cele care vor învăța de fapt să recunoască obiectele, vin după aceasta.

Blogger și programator cu specialități în Invatare mecanica și Invatare profunda subiecte. Daniel speră să-i ajute pe alții să folosească puterea AI pentru binele social.