No início do ano, a Meta começou a marcar as fotografias criadas com inteligência artificial (IA). O objetivo era claro: proteger os utilizadores do Facebook, Instagram e Threads deste tipo de conteúdo, informando-os sempre sobre quais as fotografias que são reais e quais as que não são. Mas categorizar imagens criadas por IA não é assim tão fácil…
1º passo para alertar sobre conteúdos de IA: saber o que são conteúdos de IA
Categorizar este tipo de imagens não é assim tão fácil, mesmo para a Meta. Como relata a TechCrunch, nos últimos meses temos visto exemplos de fotografias reais (bastante virais) em que a Meta não parece ser muito clara sobre o que é IA e o que não é.
Um exemplo perfeito é a fotografia dos Kolkata Knight Riders, vencedores do torneio de críquete da Indian Premier League. A fotografia aparece como “Criado com IA”, quando não é mais do que uma fotografia real tirada durante a celebração.
Pete Souza, um antigo fotógrafo da Casa Branca, também se queixou online desta label. Uma fotografia a preto e branco, tirada durante um jogo de basquetebol, foi rotulada como “criada com IA”. A sua suspeita? Utilizou ferramentas da Adobe para recortar a imagem e esta pequena modificação poderia ter levado o algoritmo a rotulá-la como modificada (o que faz pouco sentido na prática, uma vez que todas as fotografias profissionais são editadas).
Em declarações à Techcrunch, a Meta diz estar ciente das queixas recentes e afirma estar a “avaliar a sua abordagem” para que as labels possam refletir a quantidade de IA utilizada nas fotografias.
A nossa intenção sempre foi ajudar as pessoas a saberem quando veem conteúdo que foi criado com IA. Estamos a ter em conta o feedback recente e continuamos a avaliar a nossa abordagem para que as nossas labels reflitam a quantidade de IA utilizada numa imagem.
Leia também: