Óculos Ray-Ban Meta poderão ler, traduzir e legendar fotografias graças à IA
Os óculos inteligentes Ray-Ban Meta estão prestes a receber uma atualização bastante interessante, graças à inteligência artificial da Meta, que finalmente aprendeu a ver e a ouvir.
A Meta anunciou algumas novidades interessantes para os seus óculos inteligentes, que os tornarão mais úteis e interativos. A empresa está a testar um novo assistente de IA "multimodal" que pode responder às suas perguntas com base no que vê e ouve através da câmara e dos microfones dos óculos.
IA multimodal da Meta em ação
O assistente de IA multimodal pode sugerir roupas, traduzir texto, legendar imagens e descrever objetos para os quais aponta os óculos. O CEO da Meta, Mark Zuckerberg, mostrou algumas destas funcionalidades num vídeo do Instagram, pedindo aos óculos que recomendassem calças que combinassem com uma camisa que tinha na mão. O assistente deu-lhe duas opções e descreveu a cor e o padrão da camisa.
Como o CTO da Meta, Andrew Bosworth, demonstrou noutro vídeo, o assistente também pode lidar com tarefas de IA mais comuns, como tradução e resumos. Também mostrou como o assistente podia identificar com exatidão um quadro com a forma da Califórnia e fornecer algumas informações sobre o estado.
Acesso antecipado limitado, por enquanto
Este superpoder de IA é só para alguns. A Meta está a fazer um teste de acesso antecipado, limitado a um grupo selecionado de pessoas com experiência em tecnologia nos EUA. Mas os rumores sobre esta funcionalidade já se estão a espalhar. É como ter a Siri, a Alexa e o Google num aparelho só, mesmo em cima do nariz.
O assistente de IA multimodal ainda está a ser desenvolvido e tem algumas limitações. Só consegue reconhecer o que se vê tirando uma fotografia, que depois analisa em nuvem. Depois de fazer um pedido de voz, é necessário esperar alguns segundos para ouvir a resposta. Também é necessário utilizar comandos de voz específicos para acionar a captura de fotografias e a consulta.
As fotografias e as respostas são guardadas na aplicação Meta View no seu smartphone, à qual pode aceder mais tarde. Isto pode ser útil para manter um registo do que aprendeu ou viu através dos óculos. O assistente de IA multimodal pode ser uma ferramenta útil para explorar o mundo, fazer compras, aprender ou só mesmo divertir-se.
Leia também...
Este artigo tem mais de um ano
lixo
Para a maioria das pessoas pode ser desnecessário mas poderá ser útil para pessoas invisuais.
Util para pessoas invisuais ? Se elas nao veem vao passar a ver e isso ?
Antes de dizer disparates deveria ler o artigo com atenção porque estes óculos possuem a vertente de áudio que poderá ajudar os invisuais (pode sugerir roupas, traduzir texto, descrever objetos para os quais aponta os óculos, etc.).