OpenAI está mesmo determinada em fabricar o seu próprio chip de IA
A OpenAI está a avançar com os seus planos de criar chips de inteligência artificial (IA) personalizados, embora com uma abordagem revista em relação às expectativas iniciais. Novas informações indicam que a empresa está concentrada na conceção destes chips em colaboração com parceiros de semicondutores estabelecidos.
De acordo com um relatório da Reuters, a OpenAI iniciou conversações com a TSMC e a Broadcom para desenvolver um chip de IA especializado. Os especialistas da indústria revelam que o principal objetivo da OpenAI é construir um processador interno otimizado para os seus modelos de linguagem, com a Broadcom a desempenhar um papel significativo.
A Broadcom está atualmente envolvida no hardware de IA da Google, o que a torna um parceiro estratégico para as ambições da OpenAI!
Anteriormente, a OpenAI tinha lançado a ideia de criar uma rede de fundições para obter controlo total sobre o processo de fabrico. No entanto, devido aos custos exorbitantes associados à construção e operação de instalações de fabrico de chips - estimados entre 5 e 7 mil milhões de dólares - a empresa optou por um plano mais viável.
A estratégia revista da OpenAI aborda preocupações prementes, como a atual escassez de chips, ao mesmo tempo que posiciona a empresa para escalar o desenvolvimento da IA de forma mais rápida e eficiente.
OpenAI tem colaborado com a Broadcom para criar um chip de inferência
Ao contrário dos chips de treino, que são utilizados para o desenvolvimento inicial de modelos, os chips de inferência são concebidos para a aplicação rápida e eficiente de modelos treinados. Esses chips exigem alta eficiência energética e velocidade para fornecer as respostas em tempo real necessárias para produtos como o ChatGPT.
Com uma equipa de 20 engenheiros, a OpenAI está a posicionar-se para acelerar a conceção e a funcionalidade do chip. Espera-se que a primeira onda de processadores personalizados da OpenAI seja lançada em meados de 2026.
Este foco nos processadores de inferência reflete uma estratégia orientada para o futuro, uma vez que se espera que a procura de chips de treino atinja o pico antes de mudar para hardware de inferência nos próximos anos.
Embora nenhum anúncio oficial tenha sido feito pela OpenAI, Broadcom ou TSMC, as discussões em andamento indicam que a gigante de IA está comprometida com esta nova direção, tornando o chip de IA interno da empresa um desenvolvimento altamente esperado no cenário tecnológico.
Leia também:
Reuters:
06/10/2023 – “Exclusivo: O proprietário do ChatGPT, OpenAI, está a explorar a criação de seus próprios chips de IA”
29/10/2023 – “Exclusivo: OpenAI está a construir o primeiro chip com a Broadcom e a TSMC”
Pois, os chips para IA são caros e escassos (o que tem beneficiado grandemente a NVIDIA), face à procura exponencial. A OpenAI já tinha anunciado que estava à procura de uma solução para si.
… a segunda data é a do post de hoje: 30/10/2024 (e não 29/10/2023).
Aqui há tempos a OpenAI disse que precisava de “toneladas” de chips para IA, que não havia, e os que havia eram mito caros.