Entre em contato

Engenheiros desenvolvem mĂ©todo “Early Bird” com eficiĂȘncia energĂ©tica para treinar redes neurais profundas

InteligĂȘncia artificial

Engenheiros desenvolvem mĂ©todo “Early Bird” com eficiĂȘncia energĂ©tica para treinar redes neurais profundas

mm

Engenheiros da Rice University desenvolveram um novo mĂ©todo para treinar redes neurais profundas (DNNs) com uma fração da energia normalmente necessĂĄria. DNNs sĂŁo a forma de inteligĂȘncia artificial (IA) que desempenha um papel fundamental no desenvolvimento de tecnologias como carros autĂŽnomos, assistentes inteligentes, reconhecimento facial e outras aplicaçÔes.

Early Bird foi detalhado em um papel em 29 de abril por pesquisadores da Rice e da Texas A&M University. Aconteceu no ConferĂȘncia Internacional sobre RepresentaçÔes de Aprendizagem, ou ICLR 2020. 

Os principais autores do estudo foram Haoran You e Chaojian Li, do LaboratĂłrio de Computação Eficiente e Inteligente (EIC) de Rice. Em um estudo, eles demonstraram como o mĂ©todo poderia treinar um DNN no mesmo nĂ­vel e precisĂŁo dos mĂ©todos atuais, mas usando 10.7 vezes menos energia. 

A pesquisa foi liderada pelo diretor do EIC Lab, Yingyan Lin, Richard Baraniuk, da Rice, e Zhangyang Wang, da Texas A&M. Outros coautores incluem Pengfei Xu, Yonggan Fu, Yue Wang e Xiaohan Chen. 

“Uma grande força motriz nos avanços recentes da IA ​​é a introdução de DNNs maiores e mais caros”, disse Lin. “Mas treinar essas DNNs exige uma energia considerĂĄvel. Para que mais inovaçÔes sejam reveladas, Ă© imperativo encontrar mĂ©todos de formação “mais ecolĂłgicos” que abordem as preocupaçÔes ambientais e reduzam as barreiras financeiras da investigação em IA.”

Caro para treinar DNNs

Pode ser muito caro treinar os melhores DNNs do mundo, e o preço continua a aumentar. Em 2019, um estudo liderado pelo Allen Institute for AI em Seattle descobriu que, para treinar uma rede neural profunda de alto nĂ­vel, sĂŁo necessĂĄrios 300,000 vezes mais cĂĄlculos em comparação com 2012-2018. Outro estudo de 2019, desta vez liderado por pesquisadores da Universidade de Massachusetts Amherst, descobriu que, ao treinar um Ășnico DNN de elite, sĂŁo liberadas aproximadamente a mesma quantidade de emissĂ”es de diĂłxido de carbono que cinco automĂłveis nos EUA. 

Para que as DNNs executem suas tarefas altamente especializadas, elas consistem em pelo menos milhĂ”es de neurĂŽnios artificiais. Eles sĂŁo capazes de aprender a tomar decisĂ”es, Ă s vezes superando os humanos, observando um grande nĂșmero de exemplos. Eles podem fazer isso sem precisar de programação explĂ­cita. 

podar e treinar

Lin Ă© professor assistente de engenharia elĂ©trica e de computação na Rice's Brown School of Engineering. 

“A maneira mais avançada de realizar o treinamento de DNN Ă© chamada de poda e treinamento progressivos”, disse Lin. “Primeiro, vocĂȘ treina uma rede densa e gigante, depois remove partes que nĂŁo parecem importantes — como podar uma ĂĄrvore. Em seguida, vocĂȘ retreina a rede podada para restaurar o desempenho, pois o desempenho se degrada apĂłs a poda. E, na prĂĄtica, vocĂȘ precisa podar e retreinar vĂĄrias vezes para obter um bom desempenho.”

Este mĂ©todo Ă© usado porque nem todos os neurĂŽnios artificiais sĂŁo necessĂĄrios para completar a tarefa especializada. As conexĂ”es entre os neurĂŽnios sĂŁo fortalecidas devido ao treinamento, e outras podem ser descartadas. Esse mĂ©todo de remoção reduz os custos computacionais e reduz o tamanho do modelo, o que torna as DNNs totalmente treinadas mais acessĂ­veis. 

“O primeiro passo, treinar a rede densa e gigante, Ă© o mais caro”, disse Lin. “Nossa ideia neste trabalho Ă© identificar a rede podada final e totalmente funcional, que chamamos de ‘bilhete antecipado’, no estĂĄgio inicial desta primeira etapa dispendiosa.”

Os pesquisadores fazem isso procurando os principais padrĂ”es de conectividade de rede e foram capazes de descobrir esses tickets antecipados. Isso permitiu que eles acelerassem o treinamento DNN. 

Early Bird na fase inicial do treinamento

Lin e os outros pesquisadores descobriram que o Early Bird pode aparecer um dĂ©cimo ou menos do caminho da fase inicial do treinamento. 

“Nosso mĂ©todo pode identificar automaticamente os ingressos antecipados nos primeiros 10% ou menos do treinamento das redes densas e gigantes”, disse Lin. “Isso significa que vocĂȘ pode treinar um DNN para obter a mesma precisĂŁo ou atĂ© melhor para uma determinada tarefa em cerca de 10% ou menos do tempo necessĂĄrio para o treinamento tradicional, o que pode levar a mais de uma economia de pedido em computação e energia.”

AlĂ©m de serem mais rĂĄpidos e energeticamente eficientes, os pesquisadores tĂȘm um forte foco no impacto ambiental. 

“Nosso objetivo Ă© tornar a IA mais ecolĂłgica e mais inclusiva”, disse ela. “O tamanho dos problemas complexos de IA impediu a entrada de jogadores menores. A IA verde pode abrir a porta permitindo que pesquisadores com um laptop ou recursos computacionais limitados explorem as inovaçÔes da IA.”

A pesquisa recebeu apoio da National Science Foundation. 

 

Alex McFarland Ă© um jornalista e escritor de IA que explora os mais recentes desenvolvimentos em inteligĂȘncia artificial. Ele colaborou com inĂșmeras startups e publicaçÔes de IA em todo o mundo.