Todos sabiam que a I/O deste ano ia ser focada na IA. Este é o tema do momento para a Google e para muitas das empresas de tecnologias. Uma das apresentações feitas veio mostrar isso mesmo. O projeto Astra quer criar uma IA que consegue ler tudo o que se passa à nossa volta.
Têm sido muitas as novidades que a Google já mostrou na I/O, que decorre há poucos minutos. Todas assentam na IA e no que esta pode trazer para os serviços da gigante das pesquisas.
Uma das mais impressionantes é mesmo o Project Astra, que foi demonstrado num vídeo apresentado e que já ontem tinha sido revelada. Com um simples smartphone é possível interagir com tudo o que está presente e com a IA.
Project Astra is a prototype from @GoogleDeepMind exploring how a universal AI agent can be truly helpful in everyday life. Watch our prototype in action in two parts, each captured in a single take, in real time ↓ #GoogleIO pic.twitter.com/uMEjIJpsjO
— Google (@Google) May 14, 2024
Esta consegue ler os elementos do ambiente onde está presente e interagir com o utilizador com base nessa informação. Isso vai assim permitir muito e garantir ainda mais. O exemplo inicial foi a identificação de um objeto que produzisse som e rapidamente foi identificado umas colunas.
Seguiram-se depois vários pontos de interação, sempre com a informação que a IA leu da câmara do smartphone. O ponto máximo foi mesmo a memória de onde estavam uns óculos e a ajuda para resolver problemas num esquema num quadro.
Este é o primeiro passo para a criação de uma integração ainda maior da IA no dia a dia. A Google parece assim estar no topo destes desenvolvimentos e as suas propostas estão à frente de muita concorrência.