Depois do escândalo, Google explica o que correu mal com o Gemini…
Um dos grandes problemas dos modelos de Inteligência Artificial (IA) é o facto de ocorrerem alguns imprevistos no seu treino. Recentemente, vimos o Gemini, modelo de IA da Google, ter alguns comportamentos raciais. Mas depois de todo o escândalo que ocorreu, a Google veio explicar o que correu mal...
Na sequência da controvérsia, a Google pediu desculpa numa publicação no X e, posteriormente, deu uma explicação mais detalhada dos erros do Gemini no seu blogue.
As explicações da Google sobre a inclusão excessiva do Gemini
Prabhakar Raghavan, vice-presidente sénior da Google para as áreas de pesquisa, Assistente, anúncios, Geo (Mapas) e produtos relacionados, começa o post reconhecendo o erro e pedindo desculpa. A Google diz que "não quer que o Gemini se recuse a criar imagens de qualquer grupo em particular" ou "crie imagens históricas ou de outra forma imprecisas", o que na prática podem ser dois conceitos antagónicos.
Assim, explica que se introduzir um pedido ao Gemini solicitando imagens de um tipo específico de pessoa, como "um professor negro numa sala de aula ou um veterinário branco com um cão ou pessoas num determinado contexto cultural ou histórico, deverá obter uma resposta que reflita exatamente o que está a pedir".
A empresa de Mountain View afirma ter identificado duas questões como responsáveis pelo sucedido. Mais concretamente:
- "O nosso ajuste para garantir que o Gemini mostrava uma variedade de pessoas não teve em conta os casos em que claramente não deveria mostrar uma variedade".
- "Com o passar do tempo, o modelo tornou-se muito mais cauteloso do que pretendíamos e recusou-se a responder a certas solicitações, interpretando erradamente algumas solicitações muito simples como sensíveis".
Como resultado, a ferramenta de geração de imagens do Gemini, que funciona com o Image 2, "compensou excessivamente nalguns casos e foi demasiado conservadora noutros".
Como já foi referido, a Google prometeu trabalhar em novas melhorias antes de reativar a funcionalidade para as pessoas através de "testes exaustivos".
No post, Raghavan faz uma distinção clara entre o Gemini e o seu motor de pesquisa, recomendando vivamente que se confie na pesquisa do Google, onde explica que os seus "sistemas separados mostram informações novas e de alta qualidade" sobre este tópico, com fontes de toda a Web.
A declaração termina com um aviso: não podem prometer que tal não voltará a acontecer, abrindo a porta a mais resultados inexatos, ofensivos e enganadores. No entanto, continuarão a tomar medidas para remediar esta situação. Por fim, destaca o potencial da inteligência artificial como uma tecnologia emergente com muitas possibilidades.
Leia também:
Obviamente usar a IA Gemini e usar o Google Search não é a mesma coisa:
– pede-se ao Google Seach: “Mostra.me todas as fotos em que apareçam “pessoas de cor” nas pinturas dos pais fundadores dos EUA”. Vão aparecer uns em que haja criados negros (Thomas Jefferson foi proprietário de 600 escravos e teve 6 filhos de uma escrava, mas não aparecem nas pinturas)
– pede-se à IA Gemini para criar imagens com pessoas de como como dignatários entre os pais fundadores … e a IA Gemini cria-as – ver o post anterior sobre isto e os comentários dos “historiadores da treta”, indignados por a Gemini estar a deturpar a história.
Mas no post há uma expressão interessante da Google: “Com o passar do tempo, o modelo [Gemini] tornou-se muito mais cauteloso do que pretendíamos e recusou-se a responder a certas solicitações, interpretando erradamente algumas solicitações muito simples como sensíveis”. Ah pois é, uma IA como a Gemini não é apenas um programa que faz o que lhe mandam fazer.
… Gemini para criar imagens com pessoas de – cor – como dignatários entre os pais fundadores (ou soldados negros nas SS)
Prémio de Newspeak para o Aves, nem a Google se atreveu ao descaramento do teu texto.
Começas logo por mentir. Sabes muito bem os prompts que foram usados correctamente deram respostas totalmente erradas.
Que parte disto é que não percebes?
“O nosso ajuste para garantir que o Gemini mostrava uma variedade de pessoas não teve em conta os casos em que claramente não deveria mostrar uma variedade”.
Mas é suposto (na fase em que se encontra) a IA devolver conteúdo verificado como verdadeiro? Acho que a malta ainda está muito baralhada com tudo isto.
Como se o Gemini não cria sequer imagens?!
Pesquisa por “Gemini Image Generator Text To Image” e vê os vídeos no YouTube
Isto foi o que escreveu a Google a 23/02/2024: https://blog.google/products/gemini/gemini-image-generation-issue/
hehehe , nao o sabem eu ajudo correu mal pq tem no seu projecto racistas e woketards!
NUNCA vai ser AI enquanto houver condições impostas por humanos, seja Gemini, ChatGPT ou outro. É claramente possível ver bias nestes “AI”.
Talvez nunca chegue a ser a IA que tens em mente mas o termo “inteligência artificial” tem um significado claro. Não há volta a dar.
Espero bem que a Google disponibilize o Gemini a toda a gente. Estou, nomeadamente, a falar em Android. E para quem tenha versões do Android anteriores ao Android 12. Se assim não for é uma asneira de todo o tamanho pois priva milhões de pessoas por todo o mundo(que não têm capacidades financeiras) de poder usar esta ferramenta.
Bem, para se encaixar tudo no mundo woke e das pessoas sensíveis , não podemos por exemplo pedir para a IA desenhar o festejo de uma equipa de futebol masculina no final de um jogo. A IA vai dizer que é uma representação machista ?… acho que se quer controlar tanto que estamos a chegar ao ponto em que não se pode fazer nada com liberdade criativa e muito menos , ter precisão em tudo o que sejam reproduções históricas…
não admira que sejam woke, o gajop que está à frente do Gemini é declaradamente de esquerda. Por isso encaixa muito bem!