A OpenAI tornou-se a primeira empresa a receber o avançado processador de IA DGX H200 da Nvidia, entregue em mão pelo CEO da empresa, Jensen Huang. A H200, considerada a GPU mais potente do mundo, ajudará a OpenAI a avançar no desenvolvimento do GPT-5 e a atingir o seu objetivo de inteligência artificial geral (AGI).
O presidente e cofundador da OpenAI, Greg Brockman, aproveitou a oportunidade para publicar uma fotografia da entrega nas redes sociais, e o seu diretor executivo, Sam Altman, também esteve presente. Brockman disse que Huang fez o gesto “para fazer avançar a IA, a computação e a humanidade”.
O DGX H200 é o sucessor do H100 da empresa, um supercomputador de IA otimizado para IA generativa e outras cargas de trabalho baseadas em transformadores.
O desenvolvimento também significa uma colaboração entre duas grandes forças na indústria da IA: a Nvidia concentra-se nos avanços de hardware, enquanto a OpenAI é especializada no desenvolvimento de software.
First @NVIDIA DGX H200 in the world, hand-delivered to OpenAI and dedicated by Jensen "to advance AI, computing, and humanity": pic.twitter.com/rEJu7OTNGT
— Greg Brockman (@gdb) April 24, 2024
O processador de IA da próxima geração
A revelação do DGX H200 pela Nvidia marca um salto significativo na computação de alto desempenho. Este apresenta melhorias substanciais em relação ao seu antecessor, o H100. A plataforma, construída sobre a arquitetura Nvidia HopperTM, tem uma GPU Nvidia H200 Tensor Core com memória melhorada para gerir grandes volumes de dados para computação de alto desempenho e tarefas de IA generativa.
A Nvidia H200 é a primeira GPU a suportar o HBM3e, que é mais rápido e mais eficiente em termos de memória. Isto permite o avanço da computação científica para cargas de trabalho HPC, IA generativa e modelos de linguagem enormes.
As atualizações de destaque em relação à H100 incluem um notável aumento de 1,4x na largura de banda da memória e um impressionante aumento de 1,8x na capacidade da memória. Estas melhorias traduzem-se numa impressionante largura de banda de 4,8 terabytes por segundo e numa capacidade de memória de 141 GB.
De acordo com a Nvidia, essas melhorias são essenciais para lidar com as exigências de treino de modelos de IA maiores e mais complexos, particularmente aqueles implantados em aplicações de IA generativa que geram diversos tipos de conteúdo, como texto, imagens e análises preditivas.
Promover o desenvolvimento do GPT-5
Uma arquitetura de centro de dados eficaz é essencial para treinar modelos de IA com centenas de milhares de milhões de parâmetros. Isto inclui a maximização do rendimento, a redução das taxas de inatividade do servidor e a utilização de clusters multi-GPU para tarefas que requerem muita computação.
Para criar inteligência com IA generativa e aplicações HPC, grandes quantidades de dados devem ser processadas com eficiência em alta velocidade usando memória GPU grande e rápida. Com a Nvidia H200, a plataforma de supercomputação de IA ponta a ponta líder do setor, ficou mais rápida para resolver alguns dos desafios mais importantes do mundo.
Disse Ian Buck, vice-presidente de hiperescala e HPC da Nvidia.
Esses recursos farão avançar os esforços da OpenAI para treinar o GPT-5, que é apresentado como uma versão evoluída da IA conhecida como AGI. Para referência, o GPT-4 foi treinado em cerca de 25.000 GPUs Nvidia A100 durante cerca de 100 dias.
Prevê-se que o GPT-5 seja um modelo multimodal com entradas e saídas textuais e visuais. Prevê-se que a AGI combine as funcionalidades de processamento de linguagem natural, reconhecimento de imagem, dados de sensores como câmaras e microfones, reconhecimento de padrões, análise preditiva, abstração e raciocínio lógico.
O sistema de IA resultante será capaz de executar tarefas semelhantes às dos seres humanos. As ferramentas de IA atuais, como a Siri, a Alexa, o Watson e o ChatGPT, são classificadas como inteligências artificiais estreitas (IAN). A OpenAI ainda não fez um anúncio oficial sobre o cronograma de lançamento, mas é seguro dizer que as novas GPUs da Nvidia estão preparadas para avançar os cronogramas.
Leia também: