Huawei está a construir a sua própria arquitetura alternativa à CUDA da NVIDIA
A Huawei não está apenas a desenvolver novos chips de inteligência artificial (IA), mas sim a arquitetar uma alternativa completa à plataforma CUDA, numa tentativa de contornar as restrições comerciais e desafiar o domínio da NVIDIA.
A bifurcação do mundo tecnológico
Quando se analisa o sucesso da NVIDIA, a tendência natural é focar a atenção no hardware: as GPU H100, a arquitetura Blackwell, os racks de servidores ou a litografia de poucos nanómetros. Embora compreensível, esta visão é redutora. O verdadeiro "fosso defensivo" - a vantagem competitiva inigualável - da gigante americana não é o silício, é a CUDA.
A CUDA não é apenas um acessório do chip; converteu-se no padrão global sobre o qual a vasta maioria do código de IA é escrito, otimizado e depurado. Mudar de GPU sem alterar a CUDA é tecnicamente impossível. E abandonar a CUDA implica reescrever anos de desenvolvimento. É esta a barreira que a Huawei precisa de transpor.
A grande aposta da tecnológica chinesa não reside apenas em fabricar um "H100 chinês", mas sim em pavimentar uma estrada onde o programador possa migrar para a arquitetura Ascend sem sentir que mudou de planeta. Ironicamente, as restrições comerciais ocidentais estão a acelerar este processo.
As três vias para a independência
Para convencer os programadores e as empresas, a Huawei estruturou a sua abordagem de software em três níveis:
- Stack nativa (CANN + MindSpore): esta é a alternativa "pura". Trata-se do ambiente proprietário da Huawei e das suas ferramentas desenhadas para extrair o máximo desempenho dos chips Ascend. Atualmente, o custo de entrada é elevado: existem relatos de instabilidade, a documentação carece de organização e a comunidade de suporte é significativamente menor que a da NVIDIA.
- Compatibilidade com PyTorch: este é, porventura, o movimento mais estratégico. A Huawei não exige que o mundo ame a sua framework; tenta apenas que o mundo não tenha de abandonar o PyTorch. Através do adaptador torch_npu, é possível executar modelos PyTorch nos chips Ascend. O problema reside no facto de não ser nativo, sofrendo atrasos a cada atualização do PyTorch. Se a framework avança e o backend fica para trás, o programador sente a fricção.
- Portabilidade via ONNX: aqui reside a janela de oportunidade mais imediata, focada na inferência e implementação (deploy), e não no treino. O ONNX funciona como uma ponte: o modelo é treinado onde for possível (frequentemente em NVIDIA) e executado em Ascend. É uma abordagem utilitária: perante a escassez de hardware, mover a inferência para sistemas locais torna-se um alívio logístico.
A tática da migração assistida
A verdadeira história, que se lê nas entrelinhas, é que a Huawei está a tentar replicar o "truque" que elevou a NVIDIA: transformar o hardware numa experiência de utilização.
Para mitigar as dificuldades técnicas, a empresa recorre a uma tática intensiva: enviar engenheiros para as instalações dos clientes para migrar e otimizar o código manualmente. Embora não seja um modelo de negócio escalável a longo prazo, funciona como um modelo de transição eficaz. Compra-se tempo enquanto as ferramentas, as bibliotecas e o suporte amadurecem.
Existe ainda uma derivada comportamental. Se a China conseguir que um número suficiente de equipas adote o Ascend por necessidade, com o tempo essa utilização poderá tornar-se um hábito e, posteriormente, infraestrutura instalada. A adoção não ocorrerá necessariamente pela superioridade técnica, mas pela integração forçada.
Leia também:






















