Google diz que o seu supercomputador IA é mais rápido do que o chip Nvidia A100
Quase não há um dia em que as notícias não contem com um tema relacionado com a Inteligência Artificial. Desta vez, as últimas informações mostram que a Google disse que o seu supercomputador AI é mais rápido e mais ecológico do que o chip Nvidia A100.
Google revela detalhes sobre os seus supercomputadores IA
De acordo com as informações reveladas pela Reuters, a Google divulgou nesta terça-feira (4) novos dados e pormenores acerca dos seus supercomputadores que estão a ser usados para treinar modelos de Inteligência Artificial. Nessas novas informações, a empresa da Alphabet Inc. afirma que os seus sistemas são mais rápidos e mais eficientes ao nível energético do que os sistemas semelhantes da rival Nvidia.
A Google projetou e desenvolveu o seu chip personalizado denominado Tensor Processing Unit (TPU). Estes chips são usados em mais de 90% de todo o trabalho da empresa no âmbito do treino IA como forma de melhorar o processo de alimentação de dados através de modelos que os tornem úteis em várias tarefas, como a resposta a pesquisa com texto semelhante ou na criação de imagens.
O chip TPU já vai na sua quarta geração e, através do artigo científico partilhado, a Google mostra como é que juntou mais de 4.000 chips num só supercomputador usando para isso os seus próprios interruptores óticos personalizados para ajudar a conectar máquinas individuais.
O modelo PaLM da Google, que é o seu maior modelo de linguagem divulgado até agora ao público, foi treinado através da sua divisão em dois dos supercomputadores de 4.000 chips durante um período de 50 dias. A empresa acrescenta que os seus supercomputadores facilitam a reconfiguração instantânea de conexões entre chips, ajudando desta forma a evitar problemas e a ajustar para conseguir ganhos de desempenho.
Segundo a Google, em comparação aos sistemas de tamanho semelhante, os seus chips são até 1,7 vezes mais rápidos e 1,9 vezes mais eficientes energeticamente do que um sistema baseado no chip A100 da Nvidia, que já se encontrava no mercado na mesma altura do TPU de quarta geração.
Para já, um porta-voz da Nvidia recusou comentar estas afirmações.
Este artigo tem mais de um ano
Fonte: Reuters
Neste artigo: Chip, Google, IA, Nvidia A100, supercomputador, Tensor Processing Unit, TPU
Quase não há um dia? Porquê o não?
E vai ser usado no Stadia 2!
no papel é lindo, os da Nvidia trazem milhões de dólares anualmente para a empresa, e foram usados na maioria das I.As famosas do momento. Google já foi mais inovador( ainda é), mas a concorrência agora é pesada.
https://media.licdn.com/dms/image/D4E22AQHk5pWGRNLSHw/feedshare-shrink_800/0/1681121218488?e=1683763200&v=beta&t=dE5vkMBbRmI2ZJnMFMpsbXBUrv-yPt1T77vt06HPxJY