taló Què són les xarxes neuronals? - Unite.AI
Connecteu-vos amb nosaltres
Classe magistral d'IA:

IA 101

Què són les xarxes neuronals?

mm
actualitzat on

Què són les xarxes neuronals artificials (ANN)?

Molts dels avenços més importants en IA són impulsat per xarxes neuronals artificials. Les xarxes neuronals artificials (ANN) són la connexió de funcions matemàtiques unides en un format inspirat en les xarxes neuronals que es troben al cervell humà. Aquestes ANN són capaços d'extreure patrons complexos de dades, aplicant aquests patrons a dades no vistes per classificar/reconèixer les dades. D'aquesta manera, la màquina "aprèn". Aquest és un resum ràpid de les xarxes neuronals, però fem una ullada més de prop a les xarxes neuronals per entendre millor què són i com funcionen.

Perceptró multicapa explicat

Abans de mirar les xarxes neuronals més complexes, ens dedicarem un moment a mirar una versió simple d'una ANN, un perceptró multicapa (MLP).

Imagineu una cadena de muntatge en una fàbrica. En aquesta cadena de muntatge, un treballador rep un article, li fa alguns ajustos i després el passa al següent treballador de la línia que fa el mateix. Aquest procés continua fins que l'últim treballador de la línia posa els últims retocs a l'article i el col·loca sobre un cinturó que el traurà de la fàbrica. En aquesta analogia, hi ha múltiples "capes" a la línia de muntatge i els productes es mouen entre capes a mesura que es mouen d'un treballador a un altre. La línia de muntatge també té un punt d'entrada i un punt de sortida.

Un Perceptrón multicapa es pot pensar com una línia de producció molt senzilla, feta de tres capes en total: una capa d'entrada, una capa oculta i una capa de sortida. La capa d'entrada és on les dades s'introdueixen al MLP, i a la capa oculta alguns "treballadors" gestionen les dades abans de passar-les a la capa de sortida que dóna el producte al món exterior. En el cas d'un MLP, aquests treballadors s'anomenen "neurones" (o de vegades nodes) i quan manipulen les dades les manipulen mitjançant una sèrie de funcions matemàtiques.

Dins de la xarxa, hi ha estructures que connecten node a node anomenades "pesos”. Els pesos són una hipòtesi sobre com es relacionen els punts de dades a mesura que es mouen per la xarxa. Per dir-ho d'una altra manera, els pesos reflecteixen el nivell d'influència que té una neurona sobre una altra. Els pesos passen per una "funció d'activació" quan surten del node actual, que és un tipus de funció matemàtica que transforma les dades. Transformen dades lineals en representacions no lineals, cosa que permet a la xarxa analitzar patrons complexos.

L'analogia amb el cervell humà implicada per la "xarxa neuronal artificial" prové del fet que les neurones que formen el cervell humà s'uneixen de manera similar a com s'uneixen els nodes d'una ANN.

Tot i que els perceptrons multicapa existeixen des de la dècada de 1940, hi havia una sèrie de limitacions que van impedir que fossin especialment útils. Tanmateix, al llarg de les darreres dècades, una tècnica anomenada "retropropagació” es va crear que va permetre a les xarxes ajustar els pesos de les neurones i així aprendre de manera molt més eficaç. La retropropagació canvia els pesos a la xarxa neuronal, permetent a la xarxa capturar millor els patrons reals de les dades.

Xarxes neuronals profundes

Les xarxes neuronals profundes prenen la forma bàsica de la MLP i la fan més gran afegint més capes ocultes al centre del model. Així, en comptes d'haver-hi una capa d'entrada, una capa oculta i una capa de sortida, hi ha moltes capes ocultes al mig i les sortides d'una capa oculta es converteixen en les entrades per a la següent capa oculta fins que les dades han arribat fins al final. a través de la xarxa i ha estat retornat.

Les múltiples capes ocultes d'una xarxa neuronal profunda són capaços d'interpretar patrons més complexos que el perceptró multicapa tradicional. Les diferents capes de la xarxa neuronal profunda aprenen els patrons de diferents parts de les dades. Per exemple, si les dades d'entrada consisteixen en imatges, la primera part de la xarxa podria interpretar la brillantor o la foscor dels píxels, mentre que les capes posteriors escolliran formes i vores que es poden utilitzar per reconèixer els objectes de la imatge.

Diferents tipus de xarxes neuronals

Hi ha diversos tipus de xarxes neuronals, i cadascun dels diferents tipus de xarxes neuronals té els seus propis avantatges i desavantatges (i, per tant, els seus propis casos d'ús). El tipus de xarxa neuronal profunda descrit anteriorment és el tipus més comú de xarxa neuronal, i sovint es coneix com a xarxa neuronal de feedforward.

Una variació de les xarxes neuronals és la xarxa neuronal recurrent (RNN). En el cas de les xarxes neuronals recurrents, s'utilitzen mecanismes de bucle per retenir informació d'estats anteriors d'anàlisi, és a dir, poden interpretar dades on l'ordre importa. Els RNN són útils per obtenir patrons a partir de dades seqüencials/cronològiques. Les xarxes neuronals recurrents poden ser unidireccionals o bidireccionals. En el cas d'una xarxa neuronal bidireccional, la xarxa pot agafar informació de més endavant en la seqüència, així com de parts anteriors de la seqüència. Com que l'RNN bidireccional té més informació en compte, és més capaç de dibuixar els patrons adequats a partir de les dades.

Una xarxa neuronal convolucional és un tipus especial de xarxa neuronal que és capaç d'interpretar els patrons que es troben a les imatges. Una CNN funciona passant un filtre sobre els píxels de la imatge i aconseguint una representació numèrica dels píxels dins de la imatge, que després pot analitzar per a patrons. Una CNN s'estructura de manera que les capes convolucionals que treuen els píxels de la imatge són primer, i després vénen les capes de feed-forward densament connectades, aquelles que realment aprendran a reconèixer els objectes, després d'això.

Blogger i programador amb especialitats en Aprenentatge automàtic i Aprenentatge profund temes. Daniel espera ajudar els altres a utilitzar el poder de la IA per al bé social.