A Tesla é uma das marcas mais populares no mercado dos carros elétricos e autónomos. Mas, para que todo esse sistema inteligente funcione, é necessário ter uma enorme estrutura tecnológica por trás. Como tal, a empresa de Elon Musk inaugurou agora o seu novo supercomputador que vale 300 milhões de dólares e está equipado com 10.000 placas gráficas IA Nvidia H100.
Tesla inaugura o seu novo e poderoso supercomputador IA
Foi nesta terça-feira (29) ligado e inaugurado oficialmente o novo supercomputador da Tesla, um equipamento que vale cerca de 300 milhões de dólares e que conta com nada menos do que 10.000 placas gráficas IA Nvidia H100. Todo o poder desta nova máquina será usado para treinar e melhorar o sistema de condução autónoma, o Piloto Automático (FSD), entre outras funcionalidades, dos carros da marca.
Tomorrow, @Tesla will turn on a massive and very expensive 10,000 unit NVIDIA H100 GPU cluster to help it train FSD. But that got me wondering, what is the difference between these new H100 GPUs and the older A100 graphics processing units (GPUs) Tesla has been using for the last… pic.twitter.com/ZoCjR1SdjI
— Sawyer Merritt (@SawyerMerritt) August 28, 2023
Com estas milhares de GPUs avançadas Nvidia, a Tesla consegue assim que esta sua máquina seja o quatro supercomputador mais rápido do mundo, alcançado um incrível marco de 340 PFLOPS FP64. De acordo com Tim Zaman, diretor de engenharia de infraestrutura e plataforma de IA da Tesla, “devido ao treino em gráficos no conceito de ‘mundo real’, podemos ter os maiores conjuntos de dados de treino do mundo, capacidade de cache de nível superior a 200 PB, várias ordens de magnitude a mais que LLMs“.
A Nvidia continua assim a ser a maior fabricante e fornecedora de GPUs de Inteligência Artificial do mundo. Contudo, caso a marca de Jensen Huang falhe com o fornecimento, a Tesla tem a alternativa do Dojo, que é um outro supercomputador com o mesmo objetivo deste, mas que já existe desde 2021 e conta com as gráficas Nvidia A100, menos poderosas do que as H100.
As H100 foram lançadas em 2022, custam cerca de 40 mil dólares e são até 30 vezes mais rápidas do que as A100 e 9 vezes mais rápidas para treino de IA. Contam com 18.432 núcleos CUDA, 640 núcleos tensor, 80 multiprocessadores de streaming e, como seria de esperar, consomem muito mais energia do que as A100.