Amazon está lutando para desafiar a supremacia do chip AI da Nvidia

A Amazon desenvolveu seus próprios chips de IA para reduzir custos, o que também ajudou a aumentar a lucratividade da Amazon Web Services (AWS). No entanto, a gigante do comércio eletrônico está lutando para desenvolver chips de IA que possam rivalizar com os chips padrão da Nvidia.

Problemas de migração de design, lacunas de compatibilidade e baixo uso são algumas das preocupações que retardam a adoção dos chips de IA da Amazon. A situação também colocou em jogo as enormes receitas que a Amazon gera com o seu negócio na nuvem. Os desafios que a Amazon enfrenta foram identificados através de documentos confidenciais e fontes familiarizadas com o assunto, conforme relatado pelo Business Insider.

Os chips internos de IA da Amazon enfrentam adoção sufocada

Trainium e Inferentia são chips top de linha projetados pela Amazon que foram lançados no final do ano passado. A publicação informou que a taxa de adoção do Trainium entre os clientes da AWS no ano passado foi de apenas 0,5% da das unidades de processamento gráfico da Nvidia.

Leia também: Amazon Profit supera as expectativas de Wall Street, pois a IA generativa da AWS faz maravilhas

De acordo com o relatório, a Amazon realizou a avaliação para medir a taxa de utilização de diferentes chips de IA nos seus serviços AWS em abril de 2024. Ao mesmo tempo, a taxa de adoção do Inferentia foi ligeiramente superior, de 2,7%. Inferentia é um chip especial projetado para inferência, tarefa de inteligência artificial que geralmente se refere ao processo de cálculo para utilização do modelo de IA pelos consumidores finais. O relatório mencionou um documento interno afirmando isso;

“As primeiras tentativas dos clientes expuseram pontos de atrito e sufocaram a adoção.”

A declaração acima refere-se aos desafios que os grandes clientes da nuvem enfrentaram ao fazer a transição para os chips personalizados da Amazon. A plataforma CUDA da Nvidia é considerada mais atrativa para os clientes, e o relatório identifica esse como um dos principais motivos.

Desenvolvimento de chip de IA personalizado da Amazon sob revisão interna

A AWS, maior provedora de serviços em nuvem do mundo, está agora desenvolvendo seus próprios chips de computador caseiros para facilitar as operações. A Amazon às vezes ostenta seus esforços de chips de IA. Porém, a imagem mostrada nos documentos é diferente do que a empresa esperava.

Amazon está lutando para desafiar a supremacia do chip AI da Nvidia
O Ministro das Comunicações e Informação de Cingapura, Tan Kiat How, com executivos e parceiros da AWS. Fonte: AWS.

Documentos internos dizem que a empresa está lutando contra uma taxa de adoção lenta, mas o CEO da Amazon tem opiniões diferentes. Na teleconferência de resultados do primeiro trimestre, o CEO da Amazon, Andy Jassy, ​​disse que a demanda por chips AWS era alta.

“Temos a maior seleção de instâncias de computação NVIDIA disponíveis, mas a demanda por nosso silício personalizado, treinamento e inferência é bastante alta, dadas as vantagens econômicas em comparação com as alternativas disponíveis.”

Andy Jassy

Jassy também mencionou os primeiros a adotar chips de silício AWS em sua carta aos investidores , dizendo que “já temos vários clientes usando nossos chips de IA, incluindo Anthropic, Airbnb, Hugging Face, Qualtrics, Ricoh e Snap”. Ao mesmo tempo, a Anthropic é um caso completamente diferente porque a Amazon é a maior financiadora da startup. A gigante da nuvem investiu US$ 4 bilhões na Anthropic e o acordo de investimento a vincula ao uso de silício projetado pela AWS.

Um dos principais componentes da AWS usa GPUs Nvidia

Amazon Web Services oferece uma variedade de processadores, desde chips Grass Hopper da Nvidia até AMD e Intel. A maior parte de sua lucratividade vem do projeto de seus próprios chips de data center, o que ajuda a economizar custos ao evitar a compra de GPUs da Nvidia.

Leia também: Nvidia experimenta crescimento notável em meio à crescente demanda por IA e GPUs

A Amazon lançou seu primeiro chip de IA, o Inferntia, em 2018, mas a Nvidia ainda lidera na oferta de soluções que são mais amplamente adotadas por diferentes setores. AWS, Microsoft e Google são alguns dos maiores clientes da Nvidia. Todos esses gigantes alugam GPUs por meio de seus serviços em nuvem.

Em março, Adam Selipsku, CEO da AWS, participou do Nvidia GTC 2023. Ambas as empresas fizeram um anúncio conjunto focado em sua colaboração estratégica para o avanço da inteligência artificial generativa.

“A profunda colaboração entre nossas duas organizações remonta a mais de 13 anos, quando juntos lançamos a primeira instância de GPU em nuvem do mundo na AWS, e hoje oferecemos a mais ampla gama de soluções de GPU NVIDIA para os clientes.”

Selipsku

A plataforma da Nvidia, chamada Cuda, costuma ser preferida pelos desenvolvedores. Já que a Nvidia dedicou muitos anos de tempo e esforço à sua criação, e a indústria o adotou, o que torna mais fácil para eles gerenciarem as coisas. Por outro lado, a Amazon ainda precisa resolver esse enigma por tentativa e erro.


Reportagem criptopolitana de Aamir Sheikh