Connect with us

IA 101

¿Qué es el Aprendizaje Meta?

mm

¿Qué es el Aprendizaje Meta?

Una de las áreas de investigación de mayor crecimiento en el aprendizaje automático es el área del aprendizaje meta. El aprendizaje meta, en el contexto del aprendizaje automático, es el uso de algoritmos de aprendizaje automático para ayudar en el entrenamiento y la optimización de otros modelos de aprendizaje automático. A medida que el aprendizaje meta se vuelve más y más popular y se desarrollan más técnicas de aprendizaje meta, es beneficioso tener una comprensión de qué es el aprendizaje meta y tener una idea de las diversas formas en que se puede aplicar. Analicemos las ideas detrás del aprendizaje meta, tipos de aprendizaje meta, así como algunas de las formas en que se puede utilizar el aprendizaje meta.

El término aprendizaje meta fue acuñado por Donald Maudsley para describir un proceso por el cual las personas comienzan a dar forma a lo que aprenden, convirtiéndose en “cada vez más controladores de los hábitos de percepción, investigación, aprendizaje y crecimiento que han internalizado”. Más tarde, los científicos cognitivos y psicólogos describirían el aprendizaje meta como “aprender a aprender”.

Para la versión de aprendizaje automático del aprendizaje meta, la idea general de “aprender a aprender” se aplica a los sistemas de inteligencia artificial. En el sentido de la inteligencia artificial, el aprendizaje meta es la capacidad de una máquina artificialmente inteligente para aprender a realizar diversas tareas complejas, tomando los principios que utilizó para aprender una tarea y aplicándolos a otras tareas. Los sistemas de inteligencia artificial suelen tener que ser entrenados para realizar una tarea a través del dominio de muchas subtareas pequeñas. Este entrenamiento puede llevar mucho tiempo y los agentes de inteligencia artificial no transfieren fácilmente el conocimiento aprendido durante una tarea a otra tarea. La creación de modelos y técnicas de aprendizaje meta puede ayudar a la inteligencia artificial a aprender a generalizar los métodos de aprendizaje y adquirir nuevas habilidades más rápidamente.

Tipos de Aprendizaje Meta

Aprendizaje Meta de Optimizador

El aprendizaje meta se emplea a menudo para optimizar el rendimiento de una red neuronal existente. Los métodos de aprendizaje meta de optimizador suelen funcionar ajustando los hiperparámetros de una red neuronal diferente para mejorar el rendimiento de la red neuronal base. El resultado es que la red neuronal objetivo debería mejorar en la realización de la tarea para la que se está entrenando. Un ejemplo de un optimizador de aprendizaje meta es el uso de una red para mejorar los resultados del descenso de gradiente.

Aprendizaje Meta de Pocos Disparos

Un enfoque de aprendizaje meta de pocos disparos es uno en el que se diseña una red neuronal profunda que es capaz de generalizar desde los conjuntos de datos de entrenamiento a conjuntos de datos no vistos. Un ejemplo de clasificación de pocos disparos es similar a una tarea de clasificación normal, pero en lugar de eso, las muestras de datos son conjuntos de datos completos. El modelo se entrena en muchas tareas de aprendizaje/datos diferentes y luego se optimiza para un rendimiento máximo en las múltiples tareas de entrenamiento y datos no vistos. En este enfoque, una sola muestra de entrenamiento se divide en múltiples clases. Esto significa que cada muestra de entrenamiento/conjunto de datos podría potencialmente estar compuesta por dos clases, para un total de 4 disparos. En este caso, la tarea de entrenamiento total podría describirse como una tarea de clasificación de 4 disparos y 2 clases.

En el aprendizaje de pocos disparos, la idea es que las muestras de entrenamiento individuales son minimalistas y que la red puede aprender a identificar objetos después de haber visto solo unas pocas imágenes. Esto es similar a cómo un niño aprende a distinguir objetos después de ver solo un par de imágenes. Este enfoque se ha utilizado para crear técnicas como modelos generativos de un disparo y redes neuronales con memoria aumentada.

Aprendizaje Meta de Métrica

El aprendizaje meta basado en métricas es la utilización de redes neuronales para determinar si una métrica se está utilizando de manera efectiva y si la red o las redes están alcanzando la métrica objetivo. El aprendizaje meta basado en métricas es similar al aprendizaje de pocos disparos en que se utilizan solo unos pocos ejemplos para entrenar la red y que la red aprenda el espacio de métricas. La misma métrica se utiliza en todo el dominio diverso y si las redes se desvían de la métrica, se considera que están fallando.

Aprendizaje Meta de Modelo Recurrente

El aprendizaje meta de modelo recurrente es la aplicación de técnicas de aprendizaje meta a las Redes Neuronales Recurrentes y las redes de Memoria a Corto Plazo similares. Esta técnica opera entrenando el modelo RNN/LSTM para aprender secuencialmente un conjunto de datos y luego utilizando este modelo entrenado como base para otro aprendiz. El metaaprendizaje toma a bordo el algoritmo de optimización específico que se utilizó para entrenar el modelo inicial. La parametrización heredada del metaaprendizaje permite que se inicialice y converja rápidamente, pero aún puede actualizarse para nuevos escenarios.

¿Cómo Funciona el Aprendizaje Meta?

La forma exacta en que se lleva a cabo el aprendizaje meta varía dependiendo del modelo y la naturaleza de la tarea en cuestión. Sin embargo, en general, una tarea de aprendizaje meta implica copiar los parámetros de la primera red en los parámetros de la segunda red/optimizador.

Hay dos procesos de entrenamiento en el aprendizaje meta. El modelo de aprendizaje meta se entrena generalmente después de varios pasos de entrenamiento en el modelo base. Después de los pasos de entrenamiento hacia adelante, hacia atrás y de optimización que entrenan el modelo base, se lleva a cabo el paso de entrenamiento hacia adelante para el modelo de optimización. Por ejemplo, después de tres o cuatro pasos de entrenamiento en el modelo base, se calcula una pérdida meta. Después de calcular la pérdida meta, se calculan los gradientes para cada parámetro meta. Después de esto, se actualizan los parámetros meta en el optimizador.

Una posibilidad para calcular la pérdida meta es terminar el paso de entrenamiento hacia adelante del modelo inicial y luego combinar las pérdidas que ya se han calculado. El metaoptimizador incluso podría ser otro metaaprendiz, aunque en algún punto se debe utilizar un optimizador discreto como ADAM o SGD.

Muchos modelos de aprendizaje profundo pueden tener cientos de miles o incluso millones de parámetros. Crear un metaaprendiz que tenga un conjunto completamente nuevo de parámetros sería computacionalmente costoso, y por esta razón, se utiliza una táctica llamada compartición de coordenadas. La compartición de coordenadas implica ingeniar el metaaprendiz/optimizador para que aprenda un solo parámetro del modelo base y luego simplemente clonar ese parámetro en lugar de todos los demás parámetros. El resultado es que los parámetros que posee el optimizador no dependen de los parámetros del modelo.

Bloguero y programador con especialidades en Machine Learning y Deep Learning temas. Daniel espera ayudar a otros a utilizar el poder de la IA para el bien social.