A grande maioria das pessoas sabe, ou já ouviu falar, do ChatGPT, o sistema de inteligência artificial usado para diversas finalidades. No entanto, os dados indicam que este serviço custa à criadora OpenAI 700.000 dólares por dia para ser executado. Assim, parece que a Microsoft está empenhada em criar os seus próprios chips IA para tentar reduzir esta significativa despesa.
ChatGPT custa 700.000 dólares por dia para ser executado
Embora se fale muito sobre as maravilhas da inteligência artificial e especialmente sobre a preciosa ajuda que o sistema ChatGPT fornece em várias áreas, praticamente nunca se fala nos custos associados a este serviço. Mas de acordo com o que o analista da empresa de pesquisa SemiAnalysis, Dylan Patel, já havia anteriormente referido, estima-se que o ChatGPT custe atualmente 700.000 dólares por dia à OpenAI para ser executado, ou cerca de 36 cêntimos por cada consulta feita.
Portanto, estamos a falar de um valor consideravelmente elevado, especialmente se tivermos em consideração que a utilização deste sistema IA tem sido cada vez maior. E há a indicação de que pesquisar na Internet através da inteligência artificial custa muito mais do que as pesquisas normais.
Um dos motivos para este valor é também o facto de as empresas necessitarem de adquirir uma grande quantidade de placas gráficas para ajudar a manter os serviços de IA, ao mesmo tempo que a utilização dos mesmos aumenta. Já no mês passado havíamos referido que a OpenAI poderia precisar de encomendar mais 30.000 gráficas Nvidia para suportar o processamento de dados do ChatGPT.
Microsoft pode reduzir os custos com os seus próprios chips IA
Mas há agora rumores recentes a indicar que a Microsoft estará a ponderar criar os seus próprios chips IA como forma de ajudar na redução destes custos. Esse chip da empresa de Redmond já terá como nome de código Athena e estará numa boa fase de desenvolvimento para ser ser testado por grupos selecionados internamente. Os detalhes indicam que a Microsoft pretende distribuir estes chips com os seus serviços IA do Azure já no próximo ano.
As informações revelam que o objetivo não é substituir os chips da Nvidia, mas sim diminuir a dependência, pois como o ChatGPT é executado nos serviços do Azure, esta redução de custos será benéfica para a OpenAI assim como para outros serviços IA que se hospedam nesta plataforma.