Inteligência artificial
Criando Turcos Mecânicos Artificiais Com Modelos de Linguagem Pré-Treinados

Uma grande parte do desenvolvimento de sistemas de aprendizado de máquina depende da rotulagem de dados, onde centenas, até milhares de perguntas (como Esta é uma foto de um gato? e Este texto é ofensivo?) devem ser resolvidas para desenvolver conjuntos de dados autoritativos nos quais os sistemas de IA serão treinados.
Embora todos contribuamos para este processo em algum momento, a maioria dessas tarefas de rotulagem é executada por dinheiro por trabalhadores humanos em frameworks como o Amazon Mechanical Turk, onde os anotadores completam tarefas de classificação menores em uma economia de trabalho por peça.
O desenvolvimento de modelos seria mais barato se os modelos de linguagem pré-treinados (PLMs) pudessem em si mesmos realizar algumas das tarefas de Inteligência Humana (HITs) mais básicas atualmente sendo crowdsourcidas no AMT e plataformas semelhantes.
Pesquisas recentes da Alemanha e da Huawei propõem isso, no artigo LMTurk: Aprendizes de Poucos Disparos como Trabalhadores de Crowdsourcing.
Modelos de Linguagem Realizando Aprendizado de Poucos Disparos
Os autores sugerem que os estratos mais simples de tarefas geralmente destinados a (humanos) trabalhadores do Turk são análogos ao aprendizado de poucos disparos, onde um quadro automatizado tem que decidir uma mini-tarefa com base em um pequeno número de exemplos dados a ele.
Eles propõem, portanto, que os sistemas de IA possam aprender efetivamente a partir de PLMs existentes que foram originalmente treinados por trabalhadores da multidão – que o conhecimento fundamental transmitido das pessoas para as máquinas foi efetivamente realizado e que, onde tal conhecimento é relativamente imutável ou empírico de alguma forma, os quadros de modelo de linguagem automatizados podem potencialmente realizar essas tarefas em si mesmos.
‘Nossa ideia básica é que, para uma tarefa de PNL T, tratamos os aprendizes de poucos disparos como trabalhadores não especializados, semelhantes a trabalhadores de crowdsourcing que anotam recursos para tecnologia de linguagem humana. Estamos inspirados no fato de que podemos considerar um trabalhador de crowdsourcing como um tipo de aprendiz de poucos disparos.’
As implicações incluem a possibilidade de que muitas das verdades fundamentais das quais os sistemas de IA do futuro dependem terão sido derivadas de humanos há alguns anos, e posteriormente tratadas como informações pré-validadas e exploráveis que não requerem mais intervenção humana.
Empregos para Modelos de Linguagem Semi-Performantes de Faixa Média
Além da motivação para reduzir o custo dos humanos no loop, os pesquisadores sugerem que usar PLMs de ‘faixa média’ como verdadeiros Turcos Mecânicos fornece trabalho útil para esses sistemas ‘também correram’, que estão sendo cada vez mais ofuscados por modelos de linguagem de grande escala e caros, como o GPT-3, que são muito caros e superespecificados para tais tarefas.
‘Nosso objetivo neste artigo é criar métodos que façam um uso mais eficaz dos atuais aprendizes de poucos disparos. Isso é crucial porque um número crescente de gigantescos aprendizes de poucos disparos está sendo treinado; como usá-los efetivamente é, portanto, uma pergunta importante. Em particular, queremos uma alternativa para modelos enormes difíceis de implantar.’
‘Ao mesmo tempo, queremos aproveitar ao máximo as forças dos PLMs: Sua versatilidade garante uma aplicabilidade ampla em tarefas; seu vasto estoque de conhecimento sobre a linguagem e o mundo (aprendido no pré-treinamento) se manifesta na eficiência de dados dos aprendizes de poucos disparos, reduzindo o consumo de trabalho e tempo na anotação de dados.’
Até o momento, os autores argumentam que os aprendizes de poucos disparos em PNL foram tratados como estágios intersticiais descartáveis no caminho para sistemas de linguagem natural de alto nível que são muito mais intensivos em recursos, e que tal trabalho foi realizado de forma abstrata e sem consideração pela possível utilidade desses sistemas.
Método
Os autores oferecem LMTurk (Modelo de Linguagem como turco mecânico), em um fluxo de trabalho onde a entrada deste HIT automatizado fornece rótulos para um modelo de PNL de nível médio.

Um modelo de conceito básico para LMTurk. Fonte: https://arxiv.org/pdf/2112.07522.pdf
Esta primeira iteração depende de dados ‘ouro’ rotulados por humanos de poucos disparos, onde os turcos de carne rotularam rótulos para um número limitado de tarefas, e os rótulos foram bem avaliados, seja por meio de supervisão humana direta ou por meio de votação por consenso. A implicação para este esquema é que bifurcações ou desenvolvimentos a partir deste ponto de partida baseado em humanos podem não precisar de entrada humana adicional no futuro.
Embora os autores sugiram experimentos adicionais com modelos híbridos posteriores (onde a entrada humana estaria presente, mas grandemente reduzida), eles não o fizeram, para os fins de sua pesquisa, comparar os modelos LMTurk com resultados equivalentes de trabalhadores de HIT humanos, considerando que os dados rotulados com ‘ouro’ são eles mesmos ‘entrada humana’.
O PLM projetado para realizar operações de Turk foi adaptado para a tarefa por P-Tuning, um método publicado por pesquisadores da China em 2021, que propôs embeddings de prompt contínuos treináveis para melhorar o desempenho de modelos do estilo GPT-3 em tarefas de Compreensão de Linguagem Natural (NLU).
![P-Tuning tenta aprofundar o poder de previsão de um modelo do estilo GPT, e sua aparência de compreensão conceitual da linguagem, incorporando pseudo-prompt incorporados. Neste caso, a consulta de início é 'A capital da Grã-Bretanha é um [x]'. Fonte: https://arxiv.org/pdf/2103.10385.pdf](https://www.unite.ai/wp-content/uploads/2021/12/p-tuning.jpg)
P-Tuning tenta aprofundar o poder de previsão de um modelo do estilo GPT, e sua aparência de compreensão conceitual da linguagem, incorporando pseudo-prompt incorporados. Neste caso, a consulta de início é ‘A capital da Grã-Bretanha é um [x]’. Fonte: https://arxiv.org/pdf/2103.10385.pdf












