Diretor do Instagram sobre a IA: será mais prático autenticar o real do que detetar o falso
A crescente onda de conteúdo gerado por inteligência artificial (IA) está a transformar as redes sociais de forma irreversível. Face a esta realidade, o diretor do Instagram, Adam Mosseri, sugere uma mudança de paradigma radical: em vez de tentar detetar o que é falso, a solução poderá passar por certificar o que é real.
Uma nova realidade nos feeds
Não é novidade que o conteúdo gerado por IA tem vindo a dominar os nossos feeds nas redes sociais. Adam Mosseri, o principal executivo do Instagram, deixou claro que antecipa um futuro onde o conteúdo sintético irá ultrapassar as imagens tradicionais, uma mudança com implicações profundas para criadores e fotógrafos.
Numa publicação detalhada sobre as tendências que espera ver no Instagram, Mosseri ofereceu uma avaliação notavelmente franca sobre o impacto da IA na plataforma.
Tudo o que tornava os criadores relevantes - a capacidade de serem genuínos, de se conectarem, de terem uma voz que não podia ser falsificada - está agora, de repente, acessível a qualquer pessoa com as ferramentas certas.
Os feeds estão a começar a ser preenchidos por material sintético.
Escreveu.
No entanto, Mosseri não parece excessivamente preocupado com esta transformação. O executivo afirma que existe "muito conteúdo de IA incrível" e que a plataforma poderá ter de repensar a sua abordagem à etiquetagem de tais imagens, optando por "autenticar os conteúdos reais, em vez de perseguir os falsos".
A solução para a IA: autenticar o real em vez de detetar o falso
Nas palavras do próprio Mosseri, com o seu destaque:
As plataformas de redes sociais estarão sob crescente pressão para identificar e rotular o conteúdo gerado por IA como tal. Todas as grandes plataformas farão um bom trabalho a identificar conteúdo de IA, mas tornar-se-ão piores nisso ao longo do tempo, à medida que a IA melhora a sua capacidade de imitar a realidade.
Já existe um número crescente de pessoas que acreditam, como eu, que será mais prático autenticar os conteúdos reais do que os falsos. Os fabricantes de câmaras poderiam assinar criptograficamente as imagens no momento da captura, criando uma cadeia de custódia.
Esta abordagem parece, de facto, mais pragmática para a Meta. As tecnologias atuais destinadas a identificar conteúdo de IA, como as marcas d'água, demonstraram ser pouco fiáveis. São fáceis de remover e ainda mais fáceis de ignorar.
As próprias etiquetas da Meta são pouco claras e a empresa, que investiu dezenas de milhares de milhões de euros em IA só este ano, já admitiu não conseguir detetar de forma fiável todo o conteúdo gerado ou manipulado por IA na sua plataforma.
Uma admissão de derrota
O facto de Mosseri admitir tão prontamente a derrota nesta questão é revelador. A batalha contra a proliferação de conteúdo sintético de baixa qualidade parece estar perdida. E no que toca a ajudar os 3 mil milhões de utilizadores do Instagram a distinguir o que é real, a responsabilidade, sugere ele, deveria ser de outros, e não da Meta.
A ideia é que os fabricantes de câmaras - presumivelmente tanto de telemóveis como de equipamentos fotográficos profissionais - desenvolvam o seu próprio sistema de "verificação de autenticidade no momento da captura". Contudo, Mosseri oferece poucos detalhes sobre como tal sistema funcionaria ou como seria implementado na escala necessária para se tornar viável.
Mosseri também não aborda diretamente como esta nova direção poderá afastar os muitos fotógrafos e criadores do Instagram que já se sentem frustrados com a aplicação. O executivo recebe regularmente queixas de utilizadores que questionam por que motivo o algoritmo da plataforma não distribui consistentemente as suas publicações aos seus próprios seguidores.
A resposta de Mosseri sugere que estas queixas derivam de uma visão ultrapassada do que é o Instagram. O feed de imagens quadradas e "polidas", afirma, "está morto". Na sua opinião, as empresas de câmaras "estão a apostar na estética errada" ao tentar "fazer com que todos pareçam fotógrafos profissionais do passado".
Em vez disso, defende que imagens mais "cruas" e "pouco lisonjeiras" serão a forma de os criadores provarem que são reais e não gerados por IA. Num mundo onde o Instagram terá mais conteúdo sintético do que real, a prioridade dos criadores deverá ser a produção de imagens e vídeos que, intencionalmente, pareçam menos perfeitos.
Leia também:























Portanto preparem-se: daqui a nada aparece uma forma paga de certificar os nossos conteúdos. Por isso é que ele não está preocupado. Não é com marcas d’água que se vai lá. É com outras tags que não podem ser removidas, e que o sistema deve detetar na altura do envio, se aquela imagem é, ou não, feita por IA. E quem diz imagem diz por exemplo, música. A questão não é ficar mais fácil detetar o que é falso. A questão é: é mais rentável certificar o que é real. Sendo que o que é real é relativo porque a própria plataforma está cheia de filtros que torna o real irreal, gerado por inteligência artificial, ainda que tal não seja assumido. A malta esquece-se que aqueles videojogos de 4bits da Atari já tinham inteligência artificial. Ou seja, isto não é uma novidade. Novidade é a sua liberaçãol para uso civil, porque alguém calculou mal o passo, e heis-nos aqui. Mas é muito fácil. Basta que sistemas de geração de conteúdos, como ChatGPT, Gemini e afins, apliquem a inclusão de marcas não removíveis, e não me refiro às marcas d’água, mas metadados que as plataformas conseguem ler e fazer uma distinção do que é real e artificial. Até porque as plataformas em causa vão ter de tomar esta medida. Porquê? Simples; porque o real será uma minoria. pOrtanto, para que a plataforma consiga armazenar uma quantidade tão grande de dados, ela vai ter que, ou limitar, ou impedir salvo pagamento, a colocação de material gerado por IA.
Voltem a meter o Instagram como era há anos atrás.
Só se podia fazer upload de Fotografia, e uma breve descrição ou apenas escrever breves palavras.
Portanto resume-se a “nós não conseguimos porque verdade seja dita, somos incompetentes, então os fabricantes de telemóveis que metam algo nos vídeos criados para a certificação”.
Pura tristeza. Como se isso não fosse facilmente manipulado também. Tantos biliões investidos e continua a ser uma empresa fracassada. Olha, metam paywalls na geração de conteúdo dos vossos serviços, sempre trava alguma coisa. Aí não, parar é que não.