O CEO da Anthropic diz que os custos para treinar IA podem subir para US$ 100 bilhões nos próximos três anos

O custo do treinamento de modelos de inteligência artificial (IA) está disparando, com projeções sugerindo um aumento significativo nos próximos anos. Dario Amodei, CEO da startup de IA Anthropic, destacou essas despesas crescentes durante um episódio recente do podcast “In Good Company”.

Leia também: Trabalhadores da Samsung fazem greve exigindo salários mais altos em meio à crescente concorrência de IA

Os atuais modelos avançados de IA, como o ChatGPT-4, exigem aproximadamente US$ 100 milhões para serem treinados. Mas segundo Amodei, nos próximos três anos este valor poderá subir entre 10 e 100 mil milhões de dólares.

O desenvolvimento da inteligência artificial geral aumenta custos

O aumento acentuado deve-se à mudança da inteligência artificial generativa, como ChatGPT, para a inteligência artificial geral (AGI). O progresso em direção à AGI visa desenvolver sistemas que possam compreender, adquirir e utilizar conhecimentos semelhantes aos da mente humana.

“Acho que se chegarmos a 10 ou 100 bilhões de dólares, e acho que isso acontecerá em 2025, 2026, talvez 2027… então acho que há uma boa chance de que até lá seremos capazes de obter modelos melhores do que a maioria dos seres humanos na maioria das coisas.

Amodei

De acordo com Tom's Hardware, a estrutura existente para esses avanços é atualmente enorme. Por exemplo, para treinar ChatGPT, foram necessárias mais de 30.000 GPUs, e cada chip Nvidia B200 AI custa entre US$ 30.000 e US$ 40.000. Esse investimento em hardware é um dos elementos que pode aumentar seus gastos.

Recursos computacionais aumentam os custos de treinamento em IA

Existem vários motivos pelos quais o custo do treinamento em IA está aumentando. A principal razão é que a quantidade de recursos computacionais necessários é imensa. À medida que os modelos de aprendizagem profunda avançam, são necessárias GPUs poderosas e outros hardwares especialmente projetados. Mais de 3,8 milhões de GPUs foram enviadas para data centers em 2023, demonstrando a escala da infraestrutura necessária.

Leia também: A inteligência artificial influenciará uma ampla gama de serviços públicos

Outro fator importante é o consumo de energia. O consumo de energia de todas as GPUs vendidas no ano passado seria suficiente para abastecer 1,3 milhão de residências. Este elevado consumo de energia não só acarreta elevados gastos para a empresa, mas também levanta preocupações sobre os efeitos ambientais e de conservação. De acordo com um relatório recente do Google, as emissões da empresa aumentaram quase 50% em quatro anos, principalmente devido à energia necessária para a aprendizagem da IA.

Gigantes da tecnologia investem pesadamente em infraestrutura de IA

Além disso, as principais empresas de tecnologia estão investindo muito dinheiro no avanço da inteligência artificial. Por exemplo, Elon Musk quer comprar 300.000 chips de IA de última geração da Nvidia. Da mesma forma, a Microsoft e a OpenAI estariam trabalhando em um data center de US$ 100 bilhões para o avanço da inteligência artificial.

Leia também: Wimbledon usa inteligência artificial para combater abuso online

Apesar do aumento dos custos, estão a ser feitas tentativas para optimizar os custos da formação baseada em inteligência artificial. O DeepMind do Google revelou recentemente uma técnica chamada Joint Example Selection (JEST) que afirma reduzir o número de iterações por um fator de 13 e os recursos computacionais necessários por um fator de 10. Isso ajuda a reduzir os recursos a serem usados ​​e o tempo a ser gasto.

Porém, mesmo com esse progresso, a direção geral é no sentido de custos mais elevados devido ao avanço da AGI. Da IA generativa à AGI, os modelos são necessários para interpretar grandes conjuntos de dados, aprender com eles, antecipar diferentes situações e resolver problemas que exigem pensamento crítico.


Reportagem criptopolítica de Brenda Kanana