taló Què és el metaaprenentatge? - Unite.AI
Connecteu-vos amb nosaltres
Classe magistral d'IA:

IA 101

Què és el metaaprenentatge?

mm
actualitzat on

Què és el metaaprenentatge?

Una de les àrees de recerca de més ràpid creixement en aprenentatge automàtic és l'àrea de meta-aprenentatge. El meta-aprenentatge, en el context de l'aprenentatge automàtic, és l'ús d'algoritmes d'aprenentatge automàtic per ajudar a la formació i l'optimització d'altres models d'aprenentatge automàtic. A mesura que el metaaprenentatge és cada cop més popular i s'estan desenvolupant més tècniques de metaaprenentatge, és beneficiós entendre què és el metaaprenentatge i tenir una idea de les diferents maneres en què es pot aplicar. Examinem les idees darrere del metaaprenentatge, tipus de meta-aprenentatge, així com algunes de les maneres en què es pot utilitzar el metaaprenentatge.

El terme meta-aprenentatge va ser encunyat per Donald Maudsley per descriure un procés pel qual les persones comencen a donar forma al que aprenen, esdevenint “cada cop més en control dels hàbits de percepció, indagació, aprenentatge i creixement que han interioritzat”. Més tard, els científics cognitius i els psicòlegs descriurien el metaaprenentatge com "aprendre a aprendre".

Per a la versió d'aprenentatge automàtic del meta-aprenentatge, la idea general d'"aprendre a aprendre" s'aplica als sistemes d'IA. En el sentit de la IA, el metaaprenentatge és la capacitat d'una màquina artificialment intel·ligent d'aprendre a dur a terme diverses tasques complexes, prenent els principis que utilitzava per aprendre una tasca i aplicar-la a altres tasques. Els sistemes d'IA normalment s'han d'entrenar per dur a terme una tasca mitjançant el domini de moltes subtasques petites. Aquesta formació pot trigar molt de temps i els agents d'IA no transfereixen fàcilment els coneixements apresos durant una tasca a una altra. La creació de models i tècniques de metaaprenentatge pot ajudar la IA a aprendre a generalitzar els mètodes d'aprenentatge i adquirir noves habilitats més ràpidament.

Tipus de meta-aprenentatge

Optimizer Meta-Learning

Sovint s'utilitza el metaaprenentatge per optimitzar el rendiment d'una xarxa neuronal ja existent. Els mètodes de metaaprenentatge de l'optimitzador solen funcionar ajustant els hiperparàmetres d'una xarxa neuronal diferent per tal de millorar el rendiment de la xarxa neuronal base. El resultat és que la xarxa objectiu hauria de ser millor a l'hora de realitzar la tasca sobre la qual s'està entrenant. Un exemple d'optimitzador de meta-aprenentatge és l'ús d'una xarxa per millorar descens en gradient resultats.

Meta-aprenentatge de pocs cops

Un enfocament de metaaprenentatge d'uns quants cops és aquell en què s'ha dissenyat una xarxa neuronal profunda que és capaç de generalitzar-se des dels conjunts de dades d'entrenament fins a conjunts de dades no vists. Una instància de classificació de pocs tirs és similar a una tasca de classificació normal, però en canvi, les mostres de dades són conjunts de dades sencers. El model s'entrena en moltes tasques/conjunts de dades d'aprenentatge diferents i després s'optimitza per obtenir el màxim rendiment en la multitud de tasques d'entrenament i dades no vistes. En aquest enfocament, una única mostra de formació es divideix en diverses classes. Això vol dir que cada mostra/conjunt de dades d'entrenament podria estar format per dues classes, per a un total de 4 tirs. En aquest cas, la tasca d'entrenament total es podria descriure com una tasca de classificació de 4 classes de 2 trets.

En l'aprenentatge de poques fotografies, la idea és que les mostres d'entrenament individuals siguin minimalistes i que la xarxa pugui aprendre a identificar objectes després d'haver vist només unes quantes imatges. Això és molt semblant a com un nen aprèn a distingir objectes després de veure només un parell d'imatges. Aquest enfocament s'ha utilitzat per crear tècniques com ara models generatius d'un sol cop i xarxes neuronals amb memòria augmentada.

Meta-aprenentatge mètric

El metaaprenentatge basat en mètriques és la utilització de xarxes neuronals per determinar si una mètrica s'està utilitzant de manera eficaç i si la xarxa o les xarxes arriben a la mètrica objectiu. El metaaprenentatge mètric és similar a l'aprenentatge de pocs cops, ja que només s'utilitzen alguns exemples per entrenar la xarxa i fer que aprengui l'espai mètric. La mateixa mètrica s'utilitza a tot el domini divers i, si les xarxes divergeixen de la mètrica, es considera que fallen.

Model recurrent de metaaprenentatge

El model de metaaprenentatge recurrent és l'aplicació de tècniques de metaaprenentatge a xarxes neuronals recurrents i xarxes similars de memòria a curt termini. Aquesta tècnica funciona entrenant el model RNN/LSTM per aprendre seqüencialment un conjunt de dades i després utilitzant aquest model entrenat com a base per a un altre aprenent. El meta-aprenent té en compte l'algorisme d'optimització específic que es va utilitzar per entrenar el model inicial. La parametrització heretada del meta-aprenent li permet inicialitzar i convergir ràpidament, però encara ser capaç d'actualitzar-se per a nous escenaris.

Com funciona el metaaprenentatge?

La manera exacta en què es duu a terme el metaaprenentatge varia segons el model i la naturalesa de la tasca en qüestió. Tanmateix, en general, una tasca de meta-aprenentatge implica copiar els paràmetres de la primera xarxa als paràmetres de la segona xarxa/l'optimitzador.

Hi ha dos processos formatius en meta-aprenentatge. El model de metaaprenentatge s'entrena normalment després de realitzar diversos passos de formació sobre el model base. Després dels passos cap endavant, cap enrere i optimització que entrenen el model base, es realitza la passada d'entrenament cap endavant per al model d'optimització. Per exemple, després de tres o quatre passos d'entrenament en el model base, es calcula una metapèrdua. Després de calcular la metapèrdua, es calculen els gradients per a cada metaparàmetre. Després d'això, s'actualitzen els metaparàmetres de l'optimitzador.

Una possibilitat per calcular la metapèrdua és acabar la passada d'entrenament endavant del model inicial i després combinar les pèrdues que ja s'han calculat. El meta-optimitzador fins i tot podria ser un altre meta-aprenent, tot i que en un moment determinat s'ha d'utilitzar un optimitzador discret com ADAM o SGD.

Molts models d'aprenentatge profund poden tenir centenars de milers o fins i tot milions de paràmetres. Crear un meta-aprenent que tingui un conjunt de paràmetres completament nou seria computacionalment costós, i per aquest motiu, normalment s'utilitza una tàctica anomenada compartir coordenades. La compartició de coordenades implica dissenyar el meta-aprenent/optimitzador de manera que aprengui un únic paràmetre del model base i després només cloni aquest paràmetre en lloc de tots els altres paràmetres. El resultat és que els paràmetres que posseeix l'optimitzador no depenen dels paràmetres del model.

Blogger i programador amb especialitats en Aprenentatge automàtic i Aprenentatge profund temes. Daniel espera ajudar els altres a utilitzar el poder de la IA per al bé social.