InteligĂȘncia artificial
Engenheiros desenvolvem mĂ©todo âEarly Birdâ com eficiĂȘncia energĂ©tica para treinar redes neurais profundas

Engenheiros da Rice University desenvolveram um novo mĂ©todo para treinar redes neurais profundas (DNNs) com uma fração da energia normalmente necessĂĄria. DNNs sĂŁo a forma de inteligĂȘncia artificial (IA) que desempenha um papel fundamental no desenvolvimento de tecnologias como carros autĂŽnomos, assistentes inteligentes, reconhecimento facial e outras aplicaçÔes.
Early Bird foi detalhado em um papel em 29 de abril por pesquisadores da Rice e da Texas A&M University. Aconteceu no ConferĂȘncia Internacional sobre RepresentaçÔes de Aprendizagem, ou ICLR 2020.
Os principais autores do estudo foram Haoran You e Chaojian Li, do LaboratĂłrio de Computação Eficiente e Inteligente (EIC) de Rice. Em um estudo, eles demonstraram como o mĂ©todo poderia treinar um DNN no mesmo nĂvel e precisĂŁo dos mĂ©todos atuais, mas usando 10.7 vezes menos energia.
A pesquisa foi liderada pelo diretor do EIC Lab, Yingyan Lin, Richard Baraniuk, da Rice, e Zhangyang Wang, da Texas A&M. Outros coautores incluem Pengfei Xu, Yonggan Fu, Yue Wang e Xiaohan Chen.
âUma grande força motriz nos avanços recentes da IA ââĂ© a introdução de DNNs maiores e mais carosâ, disse Lin. âMas treinar essas DNNs exige uma energia considerĂĄvel. Para que mais inovaçÔes sejam reveladas, Ă© imperativo encontrar mĂ©todos de formação âmais ecolĂłgicosâ que abordem as preocupaçÔes ambientais e reduzam as barreiras financeiras da investigação em IA.â
Caro para treinar DNNs
Pode ser muito caro treinar os melhores DNNs do mundo, e o preço continua a aumentar. Em 2019, um estudo liderado pelo Allen Institute for AI em Seattle descobriu que, para treinar uma rede neural profunda de alto nĂvel, sĂŁo necessĂĄrios 300,000 vezes mais cĂĄlculos em comparação com 2012-2018. Outro estudo de 2019, desta vez liderado por pesquisadores da Universidade de Massachusetts Amherst, descobriu que, ao treinar um Ășnico DNN de elite, sĂŁo liberadas aproximadamente a mesma quantidade de emissĂ”es de diĂłxido de carbono que cinco automĂłveis nos EUA.
Para que as DNNs executem suas tarefas altamente especializadas, elas consistem em pelo menos milhĂ”es de neurĂŽnios artificiais. Eles sĂŁo capazes de aprender a tomar decisĂ”es, Ă s vezes superando os humanos, observando um grande nĂșmero de exemplos. Eles podem fazer isso sem precisar de programação explĂcita.
podar e treinar
Lin é professor assistente de engenharia elétrica e de computação na Rice's Brown School of Engineering.
âA maneira mais avançada de realizar o treinamento de DNN Ă© chamada de poda e treinamento progressivosâ, disse Lin. âPrimeiro, vocĂȘ treina uma rede densa e gigante, depois remove partes que nĂŁo parecem importantes â como podar uma ĂĄrvore. Em seguida, vocĂȘ retreina a rede podada para restaurar o desempenho, pois o desempenho se degrada apĂłs a poda. E, na prĂĄtica, vocĂȘ precisa podar e retreinar vĂĄrias vezes para obter um bom desempenho.â
Este mĂ©todo Ă© usado porque nem todos os neurĂŽnios artificiais sĂŁo necessĂĄrios para completar a tarefa especializada. As conexĂ”es entre os neurĂŽnios sĂŁo fortalecidas devido ao treinamento, e outras podem ser descartadas. Esse mĂ©todo de remoção reduz os custos computacionais e reduz o tamanho do modelo, o que torna as DNNs totalmente treinadas mais acessĂveis.
âO primeiro passo, treinar a rede densa e gigante, Ă© o mais caroâ, disse Lin. âNossa ideia neste trabalho Ă© identificar a rede podada final e totalmente funcional, que chamamos de âbilhete antecipadoâ, no estĂĄgio inicial desta primeira etapa dispendiosa.â
Os pesquisadores fazem isso procurando os principais padrÔes de conectividade de rede e foram capazes de descobrir esses tickets antecipados. Isso permitiu que eles acelerassem o treinamento DNN.
Early Bird na fase inicial do treinamento
Lin e os outros pesquisadores descobriram que o Early Bird pode aparecer um décimo ou menos do caminho da fase inicial do treinamento.
âNosso mĂ©todo pode identificar automaticamente os ingressos antecipados nos primeiros 10% ou menos do treinamento das redes densas e gigantesâ, disse Lin. âIsso significa que vocĂȘ pode treinar um DNN para obter a mesma precisĂŁo ou atĂ© melhor para uma determinada tarefa em cerca de 10% ou menos do tempo necessĂĄrio para o treinamento tradicional, o que pode levar a mais de uma economia de pedido em computação e energia.â
AlĂ©m de serem mais rĂĄpidos e energeticamente eficientes, os pesquisadores tĂȘm um forte foco no impacto ambiental.
âNosso objetivo Ă© tornar a IA mais ecolĂłgica e mais inclusivaâ, disse ela. âO tamanho dos problemas complexos de IA impediu a entrada de jogadores menores. A IA verde pode abrir a porta permitindo que pesquisadores com um laptop ou recursos computacionais limitados explorem as inovaçÔes da IA.â
A pesquisa recebeu apoio da National Science Foundation.