toco O que é Meta-Aprendizado? - Unite.AI
Entre em contato
Masterclass de IA:

AI 101

O que é Meta-Aprendizado?

mm
Atualização do on

O que é Meta-Aprendizado?

Uma das áreas de pesquisa que mais cresce em aprendizado de máquina é a área de meta-aprendizagem. Meta-learning, no contexto de aprendizado de máquina, é o uso de algoritmos de aprendizado de máquina para auxiliar no treinamento e otimização de outros modelos de aprendizado de máquina. Como a meta-aprendizagem está se tornando cada vez mais popular e mais técnicas de meta-aprendizagem estão sendo desenvolvidas, é benéfico ter uma compreensão do que é meta-aprendizagem e ter uma noção das várias maneiras pelas quais ela pode ser aplicada. Vamos examinar as ideias por trás do meta-aprendizado, tipos de meta-aprendizagem, bem como algumas das maneiras pelas quais o meta-aprendizado pode ser usado.

O termo meta-aprendizagem foi cunhado por Donald Maudsley para descrever um processo pelo qual as pessoas começam a moldar o que aprendem, tornando-se “cada vez mais no controle dos hábitos de percepção, investigação, aprendizado e crescimento que internalizaram”. Mais tarde, cientistas cognitivos e psicólogos descreveriam o meta-aprendizado como “aprender a aprender”.

Para a versão de aprendizado de máquina do meta-aprendizado, a ideia geral de “aprender a aprender” é aplicada aos sistemas de IA. No sentido da IA, o meta-aprendizado é a capacidade de uma máquina artificialmente inteligente aprender a realizar várias tarefas complexas, tomando os princípios usados ​​para aprender uma tarefa e aplicá-los a outras tarefas. Os sistemas de IA normalmente precisam ser treinados para realizar uma tarefa por meio do domínio de muitas pequenas subtarefas. Esse treinamento pode levar muito tempo e os agentes de IA não transferem facilmente o conhecimento aprendido durante uma tarefa para outra tarefa. A criação de modelos e técnicas de meta-aprendizagem pode ajudar a IA a aprender a generalizar métodos de aprendizado e adquirir novas habilidades mais rapidamente.

Tipos de meta-aprendizagem

Meta-aprendizagem do otimizador

O meta-learning é frequentemente empregado para otimizar o desempenho de uma rede neural já existente. Os métodos de meta-aprendizagem do otimizador normalmente funcionam ajustando os hiperparâmetros de uma rede neural diferente para melhorar o desempenho da rede neural básica. O resultado é que a rede de destino deve se tornar melhor no desempenho da tarefa para a qual está sendo treinada. Um exemplo de um otimizador de meta-aprendizagem é o uso de uma rede para melhorar Gradiente descendente resultados.

Meta-aprendizagem de poucos disparos

Uma abordagem de meta-aprendizagem de poucos tiros é aquela em que uma rede neural profunda é projetada, capaz de generalizar dos conjuntos de dados de treinamento para conjuntos de dados não vistos. Uma instância de classificação de poucos disparos é semelhante a uma tarefa de classificação normal, mas, em vez disso, as amostras de dados são conjuntos de dados inteiros. O modelo é treinado em várias tarefas/conjuntos de dados de aprendizado diferentes e, em seguida, é otimizado para desempenho máximo na multiplicidade de tarefas de treinamento e dados não vistos. Nesta abordagem, uma única amostra de treinamento é dividida em várias classes. Isso significa que cada amostra/conjunto de dados de treinamento pode ser composto de duas classes, para um total de 4 disparos. Nesse caso, a tarefa de treinamento total pode ser descrita como uma tarefa de classificação de 4 classes de 2 tiros.

No aprendizado de poucas fotos, a ideia é que as amostras de treinamento individuais sejam minimalistas e que a rede possa aprender a identificar objetos depois de ver apenas algumas fotos. Isso é muito parecido com o modo como uma criança aprende a distinguir objetos depois de ver apenas algumas fotos. Essa abordagem tem sido usada para criar técnicas como modelos generativos one-shot e redes neurais com memória aumentada.

Métrica Meta-Aprendizado

O meta-aprendizado baseado em métrica é a utilização de redes neurais para determinar se uma métrica está sendo usada de forma eficaz e se a rede ou redes estão atingindo a métrica de destino. O meta-aprendizado métrico é semelhante ao aprendizado de poucos tiros, pois apenas alguns exemplos são usados ​​para treinar a rede e fazer com que ela aprenda o espaço métrico. A mesma métrica é usada em todo o domínio diverso e, se as redes divergirem da métrica, elas serão consideradas falhas.

Meta-aprendizagem de modelo recorrente

O meta-aprendizado de modelo recorrente é a aplicação de técnicas de meta-aprendizado a redes neurais recorrentes e redes semelhantes de memória de longo e curto prazo. Esta técnica opera treinando o modelo RNN/LSTM para aprender sequencialmente um conjunto de dados e, em seguida, usando esse modelo treinado como base para outro aluno. O meta-aluno adota o algoritmo de otimização específico que foi usado para treinar o modelo inicial. A parametrização herdada do meta-aluno permite que ele inicialize e convirja rapidamente, mas ainda seja capaz de atualizar para novos cenários.

Como funciona o meta-aprendizado?

A maneira exata como o meta-aprendizado é conduzido varia dependendo do modelo e da natureza da tarefa em questão. No entanto, em geral, uma tarefa de meta-aprendizagem envolve copiar os parâmetros da primeira rede nos parâmetros da segunda rede/otimizador.

Existem dois processos de treinamento em meta-aprendizagem. O modelo de meta-aprendizagem é normalmente treinado após várias etapas de treinamento no modelo base terem sido realizadas. Após as etapas de avanço, retrocesso e otimização que treinam o modelo base, o passo de treinamento direto é realizado para o modelo de otimização. Por exemplo, após três ou quatro etapas de treinamento no modelo base, uma meta-perda é calculada. Após a meta-perda ser calculada, os gradientes são calculados para cada meta-parâmetro. Depois que isso ocorre, os metaparâmetros no otimizador são atualizados.

Uma possibilidade para calcular a meta-perda é terminar o passo de treinamento direto do modelo inicial e então combinar as perdas que já foram computadas. O meta-otimizador pode até ser outro meta-aluno, embora em certo ponto um otimizador discreto como ADAM ou SGD deva ser usado.

Muitos modelos de aprendizado profundo podem ter centenas de milhares ou até milhões de parâmetros. Criar um meta-aluno que tenha um conjunto inteiramente novo de parâmetros seria computacionalmente caro e, por esse motivo, uma tática chamada compartilhamento de coordenadas é normalmente usada. O compartilhamento de coordenadas envolve a engenharia do meta-aluno/otimizador para que ele aprenda um único parâmetro do modelo básico e, em seguida, apenas clone esse parâmetro no lugar de todos os outros parâmetros. O resultado é que os parâmetros que o otimizador possui não dependem dos parâmetros do modelo.

Blogueiro e programador com especialidades em Machine Learning e Aprendizagem profunda tópicos. Daniel espera ajudar outras pessoas a usar o poder da IA ​​para o bem social.