CTO da Meta confirma: divisão Superintelligence Labs tem novos modelos de IA prontos
A Meta, gigante das redes sociais, outrora considerada em desvantagem no setor da inteligência artificial (IA), está a ultimar uma nova geração de modelos que promete redefinir a sua posição no mercado global.
Superintelligence Labs da Meta dá passo gigante
A Meta não estava ausente da competição, mas sim a reorganizar as suas ideias. Após um período de silêncio, Andrew Bosworth, CTO da empresa, aproveitou a sua passagem pelo Fórum Económico Mundial em Davos para confirmar que a divisão Superintelligence Labs já concluiu a versão interna inicial dos seus novos modelos de IA.
Este marco representa o culminar de seis meses de desenvolvimento intensivo e secreto, respondendo às elevadas expectativas que recaem sobre o futuro da empresa.
Embora Bosworth tenha evitado pormenores técnicos exaustivos, revelou que os testes preliminares são extremamente promissores. Contudo, o lançamento comercial não será imediato. A Meta encontra-se atualmente imersa numa fase determinante de pós-treino, focada em garantir que estas ferramentas sejam robustas e eficazes.
Apesar de a empresa manter o sigilo oficial, várias fugas de informação apontam para o desenvolvimento de dois modelos distintos:
- O primeiro, apelidado de "Avocado", terá um foco primordial no processamento de texto e deverá ser apresentado ao público no primeiro trimestre de 2026.
- Por outro lado, o "Mango" será a resposta da Meta para a criação de conteúdo visual, especializando-se na geração de imagem e vídeo de alta fidelidade.
Esta nova direção surge após um 2025 descrito pelo próprio Bosworth como "tremendamente caótico". O insucesso do Llama 4 forçou Mark Zuckerberg a reformular radicalmente a filosofia da empresa. Para inverter a situação, a Meta investiu quantias astronómicas na contratação de talento, destacando-se a aquisição da Scale AI.
A IA como motor dos dispositivos vestíveis
O sucesso destes novos modelos poderá ditar a evolução dos dispositivos de hardware da marca. A integração desta tecnologia é esperada nos óculos inteligentes desenvolvidos em parceria com a Ray-Ban, que receberam recentemente a versão Meta Ray-Ban Display.
Estes dispositivos, cada vez mais versáteis, dependem da fluidez e inteligência destes novos modelos para oferecer uma interação com o utilizador que ultrapasse os limites atuais da computação móvel.
Uma das grandes incógnitas reside na manutenção da política de "open-source". Se em 2024 Zuckerberg defendia o open-source como o caminho óbvio, o panorama alterou-se significativamente. Com a ascensão de modelos abertos provenientes da China e as dificuldades passadas do Llama, não é garantido que o Avocado ou o Mango sejam partilhados.
Resta saber se o investimento maciço trará os resultados esperados. Zuckerberg afirmou estar disposto a arriscar milhares de milhões de euros, argumentando que a inação seria um perigo maior para a sobrevivência da Meta.
Leia também:






















“Por outro lado, o “Mango” será a resposta da Meta para a criação de conteúdo visual, especializando-se na geração de imagem e vídeo de alta fidelidade”. Isso é tudo muito giro, mas o cidadão comum não pode pagar subscrições disso.
O Google Veo 3.1 ou Sora 2, ou Hailuo 2.3, ou qualquer gerador de vídeo IA estão a ficar caros. Com uma subscrição básica não tens créditos suficientes para gerar vídeos. O Google Veo 3.1 por exemplo na versão barata “fast” de 20 euros, gera vídeos de 720p e má qualidade. A qualidade melhor (HD, 1080p) tens de pagar uns 150 euros de mensalidade. Um videoclip de 10 segundos custa em média 400 créditos. Usar a IA é demasiado caro!
Só serve para fazermos os famosos “reels” de 6 segundos, para Facebook ou Instagram, nada mais.