Pplware

Amazon afirma que os seus mais recentes chips são 4 vezes mais rápidos para o treino de IA

A Amazon Web Services (AWS) iniciou a sua conferência re:Invent, sediada em Las Vegas, com uma série de anúncios, a maioria dos quais envolvendo a tecnologia mais popular do ano, a IA. Estas notícias, consideradas no seu conjunto, dão-nos uma ideia dos objetivos a longo prazo da empresa para os chips de inteligência artificial.


 

O Trainium2 foi concebido para ter um desempenho 4 vezes melhor

A AWS revelou a sua última geração de chips de IA destinados à formação de modelos e à execução de modelos formados. O Trainium2, que se destina obviamente ao treino de modelos, foi concebido para proporcionar um desempenho até 4 vezes melhor e uma eficiência energética 2 vezes superior em comparação com o seu antecessor.

A Amazon promete que estes chips permitirão aos programadores treinar modelos rapidamente e a um custo inferior, devido à redução do consumo de energia. A Anthropic, uma concorrente da OpenAI apoiada pela Amazon, já anunciou planos para construir modelos com chips Trainium2.

O Graviton4, por outro lado, é mais para uso geral. Estes processadores são baseados na arquitetura Arm, mas consomem menos energia do que os chips Intel ou AMD. A Amazon promete um aumento de 30 % no desempenho geral ao utilizar um modelo de IA treinado incorporado num processador Graviton4.

Isso deve reduzir os custos de computação em nuvem para organizações que empregam regularmente modelos de IA e oferecer um ligeiro aumento na velocidade para utilizadores regulares que procuram apenas fazer algumas fotos falsas.

Ao todo, o Graviton4 deve permitir que os clientes da AWS “processem grandes quantidades de dados, dimensionem as suas cargas de trabalho, melhorem o tempo para resultados e reduzam o seu custo total de propriedade”.

Normalmente, quando uma empresa anuncia novos chips internos, isso significa problemas para os atuais fornecedores terceiros, como a NVIDIA. A empresa é um grande player no espaço de IA corporativa, graças às empresas que usam as suas GPUs para treino e a sua CPU Grace de datacenter baseada em Arm.

Em vez de evitar a parceria em favor de chips proprietários, a Amazon está a consolidar ainda mais o relacionamento, oferecendo aos clientes corporativos acesso à nuvem para as mais recentes GPUs H200 AI da NVIDIA. Também irá operar mais de 16.000 Nvidia GH200 Grace Hopper Superchips expressamente para a equipa de investigação e desenvolvimento da NVIDIA.

 

Leia também…

Exit mobile version