Pegada de carbono da inteligência artificial cresce, mas há possíveis soluções

Pegada de carbono da inteligência artificial cresce, mas há possíveis soluções

ESG Insights Pegada de carbono da inteligência artificial cresce, mas há possíveis soluções

POR SHIRIN DORA

Dado o enorme potencial de resolução de problemas da inteligência artificial (IA), não seria absurdo pensar que a IA também poderia nos ajudar a enfrentar a crise climática . Mas quando consideramos as necessidades energéticas dos modelos de IA, fica claro que a tecnologia é tanto parte do problema climático quanto uma solução.

As emissões vêm da infraestrutura associada à IA, como a construção e operação dos centros de dados que lidam com grandes quantidades de informações necessárias para sustentar esses sistemas.

No entanto, abordagens tecnológicas diferentes na construção de sistemas de IA podem ajudar a reduzir sua pegada de carbono. Duas tecnologias, em particular, têm promessa para isso: redes neurais de pulso e aprendizado ao longo da vida.

A vida de um sistema de IA pode ser dividida em duas fases: treinamento e inferência. Durante o treinamento, um conjunto de dados relevante é usado para construir e ajustar – melhorar – o sistema. Na inferência, o sistema treinado gera previsões em dados previamente não vistos.

Por exemplo, treinar uma IA destinada a ser usada em carros autônomos exigiria um conjunto de dados com muitos cenários de direção diferentes e decisões tomadas por motoristas humanos.

Após a fase de treinamento, o sistema de IA preverá manobras eficazes para um carro autônomo. As redes neurais artificiais (RNA) são uma tecnologia subjacente usada na maioria dos sistemas de IA atuais.

Elas possuem muitos elementos diferentes, chamados parâmetros, cujos valores são ajustados durante a fase de treinamento do sistema de IA. Esses parâmetros podem chegar a mais de 100 bilhões no total.

Embora um grande número de parâmetros melhore as capacidades das RNA, eles também tornam os processos de treinamento e inferência intensivos em recursos. Para colocar as coisas em perspectiva, o treinamento do GPT-3 (o sistema de IA precursor do atual ChatGPT) gerou 502 toneladas métricas de carbono, equivalente a dirigir 112 carros a gasolina por um ano.

O GPT-3 emite adicionalmente 8,4 toneladas de CO₂ anualmente devido à inferência. Desde o início do boom da IA no início de 2010, os requisitos energéticos dos sistemas de IA conhecidos como grandes modelos de linguagem (LLM) – o tipo de tecnologia por trás do ChatGPT – aumentaram em um fator de 300 mil.

Com a crescente ubiquidade e complexidade dos modelos de IA, essa tendência continuará, potencialmente tornando a IA uma contribuição significativa para as emissões de CO₂. Na verdade, nossas estimativas atuais podem ser inferiores à pegada de carbono real da IA devido à falta de técnicas padronizadas e precisas para medir as emissões relacionadas a essa tecnologia.

Redes neurais pulsadas

As novas tecnologias mencionadas anteriormente, redes neurais pulsadas (SNN) e aprendizado ao longo da vida (L2), têm o potencial de reduzir a pegada de carbono cada vez maior da IA, sendo que as SNN atuam como uma alternativa energeticamente eficiente às RNA.

As RNA funcionam processando e aprendendo padrões a partir de dados, permitindo-lhes fazer previsões. Elas operam com números decimais. Para realizar cálculos precisos, especialmente ao multiplicar números com pontos decimais, o computador precisa ser muito preciso. É por causa desses números decimais que as RNA exigem muita potência de computação, memória e tempo.

Isso significa que as RNA se tornam mais intensivas em energia à medida que as redes ficam maiores e mais complexas. Tanto as RNA quanto as SNN são inspiradas no cérebro, que contém bilhões de neurônios (células nervosas) conectados entre si por meio de sinapses.

Assim como o cérebro, as RNA e as SNN também têm componentes que os pesquisadores chamam de neurônios, embora estes sejam artificiais, não biológicos. A principal diferença entre os dois tipos de redes neurais está na maneira como os neurônios individuais transmitem informações entre si.

Os neurônios no cérebro humano se comunicam transmitindo sinais elétricos intermitentes chamados pulsos. Os pulsos em si não contêm informações. Em vez disso, as informações estão no momento desses pulsos. Essa característica binária, tudo ou nada, dos pulsos (geralmente representados como 0 ou 1) implica que os neurônios estão ativos quando ocorrem pulsos e inativos caso contrário.

Esta é uma das razões para o processamento eficiente de energia no cérebro.

Assim como o código Morse usa sequências específicas de pontos e traços para transmitir mensagens, as SNN usam padrões ou momentos de pulsos para processar e transmitir informações. Portanto, enquanto os neurônios artificiais em RNA estão sempre ativos, as SNN consomem energia apenas quando ocorre um pulso.

De outra forma, elas têm requisitos de energia mais próximos de zero. As SNN podem ser até 280 vezes mais eficientes energeticamente do que as RNA.

Meus colegas e eu estamos desenvolvendo algoritmos de aprendizado para SNN que podem aproximá-las ainda mais da eficiência energética demonstrada pelo cérebro. Os requisitos computacionais mais baixos também implicam que as SNN podem ser capazes de tomar decisões mais rapidamente.

Essas propriedades tornam as SNN úteis para uma ampla variedade de aplicações, incluindo exploração espacial, defesa e carros autônomos, devido às fontes de energia limitadas disponíveis nessas situações.

Aprendizado ao longo da vida

O L2 é outra estratégia para reduzir os requisitos gerais de energia das RNA ao longo de sua vida, na qual também estamos trabalhando.

Treinar RNA sequencialmente (os sistemas aprendem a partir de sequências de dados) em novos problemas faz com que eles esqueçam seus conhecimentos anteriores ao aprender novas tarefas. As RNA exigem o treinamento do zero quando seu ambiente operacional muda, aumentando ainda mais as emissões relacionadas à IA.

O L2 é um conjunto de algoritmos que permite que modelos de IA sejam treinados sequencialmente em várias tarefas com pouco ou nenhum esquecimento. O L2 permite que os modelos aprendam ao longo de sua vida, construindo sobre seu conhecimento existente sem precisar treiná-los do zero.

O campo da IA cresce rapidamente, e estão surgindo outras possíveis melhorias que podem mitigar as demandas de energia dessa tecnologia. Por exemplo, a construção de modelos de IA menores que exibem as mesmas capacidades preditivas que um modelo maior.

Avanços na computação quântica – uma abordagem diferente para construir computadores que aproveita fenômenos do mundo da física quântica – também permitiriam treinamento e inferência mais rápidos usando RNA e SNN. As capacidades computacionais superiores oferecidas pela computação quântica poderiam nos permitir encontrar soluções energeticamente eficientes para a IA em uma escala muito maior.

O desafio das mudanças climáticas exige que busquemos soluções para áreas de rápido avanço, como a IA, antes que sua pegada de carbono se torne muito grande.

Shirin Dora – Professor de Ciência da Computação na Universidade de Loughborough, Reino Unido.

Este texto foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original em inglês.

Leia mais artigos do ESG Insights.

Foto: Freepik O GPT-3 emite adicionalmente 8,4 toneladas de CO₂ anualmente

ÚLTIMAS NOTÍCIAS

O post Pegada de carbono da inteligência artificial cresce, mas há possíveis soluções apareceu primeiro em ESG Insights .

Fonte: ECONOMIA.IG.COM.BR