talón ¿Qué es el metaaprendizaje? - Unite.AI
Contáctanos
Clase magistral de IA:

AI 101

¿Qué es el metaaprendizaje?

mm
Actualizado on

¿Qué es el metaaprendizaje?

Una de las áreas de investigación de aprendizaje automático de más rápido crecimiento es el área de metaaprendizaje. El metaaprendizaje, en el contexto del aprendizaje automático, es el uso de algoritmos de aprendizaje automático para ayudar en el entrenamiento y la optimización de otros modelos de aprendizaje automático. A medida que el metaaprendizaje se vuelve cada vez más popular y se desarrollan más técnicas de metaaprendizaje, es beneficioso comprender qué es el metaaprendizaje y tener una idea de las diversas formas en que se puede aplicar. Examinemos las ideas detrás del metaaprendizaje, tipos de metaaprendizaje, así como algunas de las formas en que se puede utilizar el metaaprendizaje.

El término metaaprendizaje fue acuñado por Donald Maudsley para describir un proceso mediante el cual las personas comienzan a dar forma a lo que aprenden, “cada vez más en control de los hábitos de percepción, indagación, aprendizaje y crecimiento que han interiorizado”. Posteriormente, los científicos cognitivos y los psicólogos describirían el metaaprendizaje como “aprender a aprender”.

Para la versión de aprendizaje automático del metaaprendizaje, la idea general de "aprender a aprender" se aplica a los sistemas de IA. En el sentido de la IA, el metaaprendizaje es la capacidad de una máquina con inteligencia artificial para aprender cómo realizar varias tareas complejas, tomando los principios que usó para aprender una tarea y aplicándolos a otras tareas. Por lo general, los sistemas de IA deben entrenarse para realizar una tarea mediante el dominio de muchas subtareas pequeñas. Esta capacitación puede llevar mucho tiempo y los agentes de IA no transfieren fácilmente el conocimiento aprendido durante una tarea a otra. La creación de modelos y técnicas de metaaprendizaje puede ayudar a la IA a aprender a generalizar métodos de aprendizaje y adquirir nuevas habilidades más rápido.

Tipos de metaaprendizaje

Metaaprendizaje optimizador

El metaaprendizaje se emplea a menudo para optimizar el rendimiento de una red neuronal ya existente. Los métodos de metaaprendizaje de Optimizer normalmente funcionan modificando los hiperparámetros de una red neuronal diferente para mejorar el rendimiento de la red neuronal base. El resultado es que la red de destino debería mejorar en el desempeño de la tarea en la que se está capacitando. Un ejemplo de un optimizador de metaaprendizaje es el uso de una red para mejorar descenso de gradiente resultados.

Meta-aprendizaje de pocos disparos

Un enfoque de metaaprendizaje de pocas tomas es aquel en el que se diseña una red neuronal profunda que es capaz de generalizar desde los conjuntos de datos de entrenamiento a conjuntos de datos invisibles. Una instancia de clasificación de pocos disparos es similar a una tarea de clasificación normal, pero en cambio, las muestras de datos son conjuntos de datos completos. El modelo se entrena en muchas tareas de aprendizaje/conjuntos de datos diferentes y luego se optimiza para un rendimiento máximo en la multitud de tareas de entrenamiento y datos ocultos. En este enfoque, una sola muestra de entrenamiento se divide en múltiples clases. Esto significa que cada muestra/conjunto de datos de entrenamiento podría estar compuesto potencialmente por dos clases, para un total de 4 disparos. En este caso, la tarea de entrenamiento total podría describirse como una tarea de clasificación de 4 clases de 2 disparos.

En el aprendizaje de pocos disparos, la idea es que las muestras de entrenamiento individuales sean minimalistas y que la red pueda aprender a identificar objetos después de haber visto solo unas pocas imágenes. Esto es muy parecido a cómo un niño aprende a distinguir objetos después de ver solo un par de imágenes. Este enfoque se ha utilizado para crear técnicas como modelos generativos de una sola toma y redes neuronales aumentadas con memoria.

Metaaprendizaje métrico

El metaaprendizaje basado en métricas es la utilización de redes neuronales para determinar si una métrica se está utilizando de manera efectiva y si la red o las redes están alcanzando la métrica objetivo. El metaaprendizaje métrico es similar al aprendizaje de pocos intentos en el sentido de que solo se utilizan algunos ejemplos para entrenar la red y hacer que aprenda el espacio métrico. Se utiliza la misma métrica en todos los dominios y, si las redes difieren de la métrica, se considera que están fallando.

Modelo Recurrente de Metaaprendizaje

El metaaprendizaje de modelos recurrentes es la aplicación de técnicas de metaaprendizaje a redes neuronales recurrentes y redes similares de memoria a corto plazo. Esta técnica opera entrenando el modelo RNN/LSTM para aprender secuencialmente un conjunto de datos y luego usar este modelo entrenado como base para otro alumno. El metaaprendiz adopta el algoritmo de optimización específico que se utilizó para entrenar el modelo inicial. La parametrización heredada del metaaprendiz le permite inicializarse y converger rápidamente, pero aún así poder actualizarse para nuevos escenarios.

¿Cómo funciona el metaaprendizaje?

La forma exacta en que se lleva a cabo el metaaprendizaje varía según el modelo y la naturaleza de la tarea en cuestión. Sin embargo, en general, una tarea de metaaprendizaje implica copiar los parámetros de la primera red en los parámetros de la segunda red/el optimizador.

Hay dos procesos de formación en el metaaprendizaje. El modelo de metaaprendizaje generalmente se entrena después de que se hayan llevado a cabo varios pasos de entrenamiento en el modelo base. Después de los pasos hacia adelante, hacia atrás y de optimización que entrenan el modelo base, se lleva a cabo el pase de entrenamiento hacia adelante para el modelo de optimización. Por ejemplo, después de tres o cuatro pasos de entrenamiento en el modelo base, se calcula una metapérdida. Después de calcular la metapérdida, se calculan los gradientes para cada metaparámetro. Después de que esto ocurra, se actualizan los metaparámetros en el optimizador.

Una posibilidad para calcular la meta-pérdida es terminar el pase de entrenamiento hacia adelante del modelo inicial y luego combinar las pérdidas que ya se han calculado. El meta-optimizador podría incluso ser otro meta-aprendiz, aunque en cierto punto se debe usar un optimizador discreto como ADAM o SGD.

Muchos modelos de aprendizaje profundo pueden tener cientos de miles o incluso millones de parámetros. Crear un meta-aprendiz que tenga un conjunto completamente nuevo de parámetros sería computacionalmente costoso y, por esta razón, se usa típicamente una táctica llamada compartir coordenadas. El intercambio de coordenadas implica diseñar el meta-aprendiz/optimizador para que aprenda un solo parámetro del modelo base y luego simplemente clone ese parámetro en lugar de todos los demás parámetros. El resultado es que los parámetros que posee el optimizador no dependen de los parámetros del modelo.

Blogger y programador con especialidades en Aprendizaje automático (Machine learning & LLM) y Aprendizaje profundo temas Daniel espera ayudar a otros a usar el poder de la IA para el bien social.