Inteligência artificial
GPT-2, gerador de texto de inteligência artificial está sendo lançado na íntegra
As TheNextWeb (TNW) relatórios, OpenAI, a organização sem fins lucrativos por trás de vários projetos de inteligência artificial acaba de publicar o modelo final no lançamento planejado para o GPT-2, um gerador de texto que causou um debate e tanto desde seu lançamento anunciado em fevereiro.
Com base no trabalho de pesquisa da OpenAI intitulado Modelos de linguagem são alunos multitarefa não supervisionados"GPT-2 usa aprendizado de máquina para gerar novos textos com base em informações limitadas.” O que isso significa é que um usuário pode digitar uma ou duas frases sobre qualquer assunto e o gerador de IA apresentará um texto que tenha alguma relação com a entrada original. Em essência, como observa a TNW, ao contrário da maioria dos 'geradores de texto', ele não produz strings pré-escritas. GPT-2 compõe texto que não existia anteriormente.”
Em seu tweet, Scott B. Weingart, diretor do programa das bibliotecas da Carnegie Mellon University, dá um exemplo concreto:
O que é uma Pantera senão um jovem leão?
Um corredor inteiro cheio de pessoas gritando.
Que tal um final feliz? pic.twitter.com/qvPTrs790N
-Scott B. Weingart (@scott_bot) 20 de agosto de 2019
Se a morte, em alguma hora obscura e distante,
Ainda me atinge enquanto eu dormia, se eu ainda sonho:
Essa é a minha paz com uma eternidade passada?
[...]
Mas temo que não haverá paz ou descanso
Até que as estrelas me dêem o brilho total de sua luz
Para ver todos os meus cuidados e aflições em um instante.Merda. pic.twitter.com/QRoi1C3rjj
-Scott B. Weingart (@scott_bot) 20 de agosto de 2019
A OpenAI estava inicialmente preocupada com possíveis usos maliciosos de seu sistema. Fevereiro de 2019 decidiu liberar o GPT-2 em quatro partes ao longo de oito meses. Como eles explicaram em seu blog, “Devido às nossas preocupações com aplicações maliciosas da tecnologia, não estamos lançando o modelo treinado. Como um experimento de divulgação responsável, estamos lançando um modelo muito menor para os pesquisadores experimentarem, bem como um artigo técnico”.
Como explicado, o modelo completo contém 1.5 bilhão de parâmetros. “Quanto mais parâmetros um modelo é treinado, mais 'inteligente' ele parece ser – assim como os humanos, a prática leva à perfeição.”
TNW observa que inicialmente A OpenAI lançou um modelo com 124 milhões de parâmetros, posteriormente seguido por lançamentos com 355 e 774 milhões. Segundo eles, depois de testar os modelos lançados, “cada iteração mostrou uma melhoria significativa na capacidade em relação às iterações anteriores”.
Para evitar o uso indevido, a OpenAI lançou modelos de detecção GPT-2 que supostamente “combatem preventivamente o uso indevido”. Para sua própria admissão em um no blog, esses modelos de detecção ainda precisam de trabalho adicional para atingir o nível de qualidade alcançado até agora no próprio GPT-2.
Os interessados podem baixe o modelo GPT-2 SUA PARTICIPAÇÃO FAZ A DIFERENÇA no Github, confira o cartão do modelo SUA PARTICIPAÇÃO FAZ A DIFERENÇAe leia a postagem no blog da OpenAI SUA PARTICIPAÇÃO FAZ A DIFERENÇA.