talon Qu'est-ce que le méta-learning ? - Unite.AI
Suivez nous sur
Classe de maître IA :

AI 101

Qu'est-ce que le méta-apprentissage ?

mm
Le kit de préparation mis à jour on

Qu'est-ce que le méta-apprentissage ?

L’un des domaines de recherche en apprentissage automatique qui connaît la croissance la plus rapide est celui de méta-apprentissage. Le méta-apprentissage, dans le contexte de l'apprentissage automatique, est l'utilisation d'algorithmes d'apprentissage automatique pour aider à la formation et à l'optimisation d'autres modèles d'apprentissage automatique. Alors que le méta-apprentissage devient de plus en plus populaire et que de plus en plus de techniques de méta-apprentissage sont développées, il est avantageux de comprendre ce qu'est le méta-apprentissage et d'avoir une idée des différentes façons dont il peut être appliqué. Examinons les idées derrière le méta-apprentissage, types de méta-apprentissage, ainsi que certaines des façons dont le méta-apprentissage peut être utilisé.

Le terme méta-apprentissage a été inventé par Donald Maudsley pour décrire un processus par lequel les gens commencent à façonner ce qu'ils apprennent, devenant «de plus en plus maîtres des habitudes de perception, de recherche, d'apprentissage et de croissance qu'ils ont intériorisées». Plus tard, les scientifiques cognitifs et les psychologues décriront le méta-apprentissage comme « apprendre à apprendre ».

Pour la version d'apprentissage automatique du méta-apprentissage, l'idée générale d'"apprendre à apprendre" est appliquée aux systèmes d'IA. Au sens de l'IA, le méta-apprentissage est la capacité d'une machine artificiellement intelligente à apprendre à effectuer diverses tâches complexes, en prenant les principes qu'elle a utilisés pour apprendre une tâche et en les appliquant à d'autres tâches. Les systèmes d'IA doivent généralement être formés pour accomplir une tâche en maîtrisant de nombreuses petites sous-tâches. Cette formation peut prendre beaucoup de temps et les agents IA ne transfèrent pas facilement les connaissances acquises lors d'une tâche à une autre tâche. La création de modèles et de techniques de méta-apprentissage peut aider l'IA à apprendre à généraliser les méthodes d'apprentissage et à acquérir de nouvelles compétences plus rapidement.

Types de méta-apprentissage

Méta-apprentissage de l'optimiseur

Le méta-apprentissage est souvent utilisé pour optimiser les performances d'un réseau de neurones déjà existant. Les méthodes de méta-apprentissage optimiseur fonctionnent généralement en ajustant les hyperparamètres d'un réseau neuronal différent afin d'améliorer les performances du réseau neuronal de base. Le résultat est que le réseau cible devrait mieux exécuter la tâche sur laquelle il est formé. Un exemple d'optimiseur de méta-apprentissage est l'utilisation d'un réseau pour améliorer Descente graduelle résultats.

Méta-apprentissage en quelques coups

Une approche de méta-apprentissage en quelques coups est celle où un réseau neuronal profond est conçu, capable de généraliser des ensembles de données de formation à des ensembles de données invisibles. Une instance de classification en quelques prises de vue est similaire à une tâche de classification normale, mais à la place, les échantillons de données sont des ensembles de données entiers. Le modèle est formé sur de nombreuses tâches d'apprentissage/ensembles de données différents, puis il est optimisé pour des performances optimales sur la multitude de tâches de formation et de données invisibles. Dans cette approche, un seul échantillon d'apprentissage est divisé en plusieurs classes. Cela signifie que chaque échantillon/ensemble de données d'apprentissage pourrait potentiellement être composé de deux classes, pour un total de 4 prises de vue. Dans ce cas, la tâche d'entraînement totale pourrait être décrite comme une tâche de classification à 4 coups et à 2 classes.

Dans l'apprentissage en quelques prises de vue, l'idée est que les échantillons d'apprentissage individuels sont minimalistes et que le réseau peut apprendre à identifier des objets après avoir vu seulement quelques images. C'est un peu comme la façon dont un enfant apprend à distinguer les objets après avoir vu seulement quelques images. Cette approche a été utilisée pour créer des techniques telles que des modèles génératifs uniques et des réseaux de neurones à mémoire augmentée.

Méta-apprentissage métrique

Le méta-apprentissage basé sur les métriques est l'utilisation de réseaux de neurones pour déterminer si une métrique est utilisée efficacement et si le ou les réseaux atteignent la métrique cible. Le méta-apprentissage métrique est similaire à l'apprentissage en quelques coups dans le sens où seuls quelques exemples sont utilisés pour former le réseau et lui faire apprendre l'espace métrique. La même métrique est utilisée dans le domaine diversifié et si les réseaux s'écartent de la métrique, ils sont considérés comme défaillants.

Méta-apprentissage récurrent du modèle

Le méta-apprentissage de modèles récurrents est l'application de techniques de méta-apprentissage aux réseaux de neurones récurrents et aux réseaux similaires de mémoire à long terme. Cette technique fonctionne en entraînant le modèle RNN/LSTM pour apprendre séquentiellement un ensemble de données, puis en utilisant ce modèle entraîné comme base pour un autre apprenant. Le méta-apprenant intègre l’algorithme d’optimisation spécifique qui a été utilisé pour entraîner le modèle initial. Le paramétrage hérité du méta-apprenant lui permet de s'initialiser et de converger rapidement, tout en étant capable de se mettre à jour pour de nouveaux scénarios.

Comment fonctionne le méta-apprentissage ?

La manière exacte dont le méta-apprentissage est effectué varie en fonction du modèle et de la nature de la tâche à accomplir. Cependant, en général, une tâche de méta-apprentissage consiste à recopier les paramètres du premier réseau dans les paramètres du second réseau/l'optimiseur.

Il existe deux processus de formation dans le méta-apprentissage. Le modèle de méta-apprentissage est typiquement formé après que plusieurs étapes de formation sur le modèle de base ont été réalisées. Après les étapes avant, arrière et d'optimisation qui entraînent le modèle de base, la passe d'entraînement avant est effectuée pour le modèle d'optimisation. Par exemple, après trois ou quatre étapes d'apprentissage sur le modèle de base, une méta-perte est calculée. Une fois la méta-perte calculée, les gradients sont calculés pour chaque méta-paramètre. Après cela, les méta-paramètres de l'optimiseur sont mis à jour.

Une possibilité pour calculer la méta-perte est de terminer la passe d'entraînement vers l'avant du modèle initial, puis de combiner les pertes qui ont déjà été calculées. Le méta-optimiseur pourrait même être un autre méta-apprenant, bien qu'à un certain point un optimiseur discret comme ADAM ou SGD doive être utilisé.

De nombreux modèles d'apprentissage en profondeur peuvent avoir des centaines de milliers, voire des millions de paramètres. La création d'un méta-apprenant qui a un ensemble entièrement nouveau de paramètres serait coûteuse en calcul, et pour cette raison, une tactique appelée partage de coordonnées est généralement utilisée. Le partage de coordonnées implique la conception du méta-apprenant/optimiseur de sorte qu'il apprenne un seul paramètre du modèle de base, puis clone simplement ce paramètre à la place de tous les autres paramètres. Le résultat est que les paramètres que possède l'optimiseur ne dépendent pas des paramètres du modèle.

Blogueur et programmeur spécialisé dans Machine Learning ainsi que L'apprentissage en profondeur les sujets. Daniel espère aider les autres à utiliser le pouvoir de l'IA pour le bien social.