toco Como não ferver os oceanos com IA - Unite.AI
Entre em contato

Líderes de pensamento

Como não ferver os oceanos com IA

mm

Publicado

 on

À medida que navegamos na fronteira da inteligência artificial, reflito constantemente sobre a natureza dual da tecnologia em que somos pioneiros. A IA, na sua essência, não é apenas um conjunto de algoritmos e conjuntos de dados; é uma manifestação da nossa engenhosidade colectiva, destinada a resolver alguns dos desafios mais complexos que a humanidade enfrenta. No entanto, como cofundador e CEO da Laboratórios Lemurianos, estou perfeitamente ciente da responsabilidade que acompanha nossa corrida para integrar a IA na própria estrutura da vida diária. Isto obriga-nos a perguntar: como podemos aproveitar o potencial ilimitado da IA ​​sem comprometer a saúde do nosso planeta?

Inovação com um lado do aquecimento global 

A inovação tecnológica sempre ocorre às custas de efeitos colaterais que nem sempre são contabilizados. No caso da IA ​​hoje, ela requer mais energia do que outros tipos de computação. A Agência Internacional de Energia informou recentemente que o treinamento de um único modelo consome mais eletricidade do que 100 lares nos EUA consomem em um ano inteiro. Toda essa energia tem um preço, não apenas para os desenvolvedores, mas para o nosso planeta. No ano passado, as emissões de CO2 relacionadas com a energia atingiram um máximo histórico de 37.4 bilhões de toneladas. A IA não está a abrandar, por isso temos de nos perguntar: vale a pena a energia necessária para alimentar a IA e as implicações resultantes no nosso planeta? A IA é mais importante do que respirar o nosso próprio ar? Espero que nunca cheguemos a um ponto em que isso se torne realidade, mas se nada mudar, não estará muito longe. 

Não estou sozinho no meu apelo por mais eficiência energética na IA. Na recente Conferência Mundial Conectada da Bosch, Elon Musk observou que com a IA estamos “à beira da maior revolução tecnológica que já existiu”, mas expressou que poderemos começar a ver escassez de eletricidade já no próximo ano. O consumo de energia da IA ​​não é apenas um problema tecnológico, é um problema global. 

Visualizando a IA como um sistema complexo

Para resolver estas ineficiências, precisamos de encarar a IA como um sistema complexo com muitas partes interligadas e móveis, em vez de uma tecnologia autónoma. Este sistema abrange tudo, desde os algoritmos que escrevemos até as bibliotecas, compiladores, tempos de execução, drivers, hardware dos quais dependemos e a energia necessária para alimentar tudo isso. Ao adoptar esta visão holística, podemos identificar e resolver ineficiências em todos os níveis de desenvolvimento da IA, abrindo caminho para soluções que não são apenas tecnologicamente avançadas, mas também ambientalmente responsáveis. Compreender a IA como uma rede de sistemas e processos interligados ilumina o caminho para soluções inovadoras que sejam tão eficientes quanto eficazes.

Uma pilha universal de software para IA

O atual processo de desenvolvimento de IA é altamente fragmentado, com cada tipo de hardware exigindo uma pilha de software específica que só roda naquele dispositivo, e muitas ferramentas e bibliotecas especializadas otimizadas para diferentes problemas, a maioria das quais são amplamente incompatíveis. Os desenvolvedores já lutam com a programação de sistemas em chips (SoCs), como aqueles em dispositivos de ponta, como telefones celulares, mas em breve tudo o que aconteceu em dispositivos móveis acontecerá no datacenter e será cem vezes mais complicado. Os desenvolvedores terão que se unir e trabalhar em um sistema intrincado de muitos modelos de programação diferentes, bibliotecas para obter desempenho de seus clusters cada vez mais heterogêneos, muito mais do que já precisam. E isso será apenas para treinamento. Por exemplo, programar e obter desempenho de um supercomputador com milhares a dezenas de milhares de CPUs e GPUs consome muito tempo e requer conhecimento muito especializado, e mesmo assim muita coisa é deixada de lado porque o modelo de programação atual não escalar para este nível, resultando em gastos excessivos de energia, que só irão piorar à medida que continuarmos a escalar modelos. 

Resolver isso requer uma espécie de pilha de software universal que possa lidar com a fragmentação e tornar mais simples a programação e obter desempenho de hardware cada vez mais heterogêneo de fornecedores existentes, ao mesmo tempo que facilita a produtividade em novo hardware de novos concorrentes. Isto também serviria para acelerar a inovação na IA e nas arquitecturas informáticas, e aumentar a adopção da IA ​​numa infinidade de mais indústrias e aplicações. 

A demanda por hardware eficiente 

Além de implementar uma pilha de software universal, é crucial considerar a otimização do hardware subjacente para maior desempenho e eficiência. As Unidades de Processamento Gráfico (GPUs), originalmente projetadas para jogos, apesar de serem imensamente poderosas e úteis, têm muitas fontes de ineficiência que se tornam mais aparentes à medida que as dimensionamos para níveis de supercomputador no datacenter. O atual dimensionamento indefinido de GPUs leva a custos de desenvolvimento ampliados, escassez de disponibilidade de hardware e um aumento significativo nas emissões de CO2.

Estes desafios não são apenas uma enorme barreira à entrada, mas o seu impacto está a ser sentido em toda a indústria em geral. Porque sejamos realistas: se as maiores empresas de tecnologia do mundo estão a ter dificuldades em obter GPUs e energia suficientes para alimentar os seus centros de dados, não há esperança para o resto de nós. 

Um pivô fundamental 

Nos Laboratórios Lemurianos, enfrentamos isso em primeira mão. Em 2018, éramos uma pequena startup de IA tentando construir um modelo fundamental, mas o custo era injustificável. A quantidade de poder de computação necessária por si só foi suficiente para elevar os custos de desenvolvimento a um nível que era inatingível não apenas para nós, como uma pequena startup, mas para qualquer pessoa fora das maiores empresas de tecnologia do mundo. Isso nos inspirou a passar do desenvolvimento da IA ​​para a solução dos desafios subjacentes que a tornavam inacessível. 

Começamos do básico, desenvolvendo uma aritmética fundamental totalmente nova para potencializar a IA. Chamado de PAL (logaritmo adaptativo paralelo), esse sistema numérico inovador nos permitiu criar um processador capaz de atingir um rendimento até 20 vezes maior do que as GPUs tradicionais em cargas de trabalho de IA de referência, tudo isso consumindo metade da energia.

Nosso compromisso inabalável de facilitar a vida dos desenvolvedores de IA e, ao mesmo tempo, tornar a IA mais eficiente e acessível, nos levou a sempre tentar descascar a cebola e obter uma compreensão mais profunda do problema. Desde o projeto de arquiteturas de computador eficientes e de altíssimo desempenho, projetadas para escalar da borda até o datacenter, até a criação de pilhas de software que abordam os desafios da programação de dispositivos únicos e heterogêneos para computadores em escala de armazém. Tudo isto serve para permitir implementações de IA mais rápidas a um custo reduzido, aumentando a produtividade dos programadores, agilizando as cargas de trabalho e, simultaneamente, melhorando a acessibilidade, promovendo a inovação, a adoção e a equidade.

Alcançando IA para Todos 

Para que a IA tenha um impacto significativo no nosso mundo, precisamos de garantir que não a destruímos no processo e isso requer uma mudança fundamental na forma como é desenvolvida. Os custos e a computação necessários hoje em dia inclinam a balança a favor de um grande número de pessoas, criando uma enorme barreira à inovação e à acessibilidade, ao mesmo tempo que despejam enormes quantidades de CO2 na nossa atmosfera. Ao pensar no desenvolvimento da IA ​​do ponto de vista dos criadores e do planeta, podemos começar a abordar estas ineficiências subjacentes para alcançar um futuro de IA que seja acessível a todos e ambientalmente responsável. 

Uma reflexão pessoal e um apelo à ação para uma IA sustentável

Olhando para o futuro, os meus sentimentos sobre o futuro da IA ​​são uma mistura de otimismo e cautela. Estou optimista quanto ao potencial transformador da IA ​​para melhorar o nosso mundo, mas cauteloso quanto à responsabilidade significativa que ela acarreta. Imagino um futuro em que a direção da IA ​​seja determinada não apenas pelos nossos avanços tecnológicos, mas por uma adesão firme à sustentabilidade, à equidade e à inclusão. Liderando o Lemurian Labs, sou movido por uma visão da IA ​​como uma força fundamental para mudanças positivas, priorizando tanto a elevação da humanidade quanto a preservação ambiental. Esta missão vai além de criar tecnologia superior; trata-se de inovações pioneiras que são benéficas, eticamente sólidas e que sublinham a importância de soluções ponderadas e escaláveis ​​que honrem as nossas aspirações colectivas e a saúde planetária.

Enquanto estamos à beira de uma nova era no desenvolvimento da IA, o nosso apelo à ação é inequívoco: devemos promover a IA de uma forma que considere conscientemente o nosso impacto ambiental e defenda o bem comum. Este espírito é a pedra angular do nosso trabalho na Lemurian Labs, inspirando-nos a inovar, colaborar e estabelecer um precedente. “Não vamos construir a IA apenas em prol da inovação, mas sim inovar para a humanidade e o nosso planeta”, apelo, convidando a comunidade global a juntar-se na remodelação do panorama da IA. Juntos, podemos garantir que a IA emerge como um farol de transformação positiva, capacitando a humanidade e protegendo o nosso planeta para as gerações futuras.

Jay Dawani é cofundador e CEO da Laboratórios Lemurianos, uma startup na vanguarda da computação acelerada de uso geral para tornar o desenvolvimento de IA acessível e geralmente disponível para que todas as empresas e pessoas se beneficiem igualmente. Autor do influente livro "Mathematics for Deep Learning", ocupou cargos de liderança em empresas como BlocPlay e Geometric Energy Corporation, liderando projetos envolvendo computação quântica, metaverso, blockchain, IA, robótica espacial e muito mais. Jay também atuou como consultor do NASA Frontier Development Lab, SiaClassic e de muitas empresas líderes de IA.