Pplware

Google suspende a sua IA Gemini. Está a apresentar erros raciais e históricos

Gemini está a ter um comportamento racial, dizem os seus responsáveis. Na verdade, a ferramenta de IA apresentou imagens criadas por si de soldados negros na Alemanha em 1943, na era nazi. Isso levou a Google a reconhecer o erro e referiu que está já a trabalhar para melhorar as representações da sua tecnologia.


A Inteligência Artificial pode ser racista?

A Google suspendeu a criação de imagens de pessoas feitas pela sua inteligência artificial (IA) Gemini após imprecisões históricas e raciais geradas pela tecnologia.

Rival da OpenAI, dona do ChatGPT, a ferramenta da Google cria imagens, programas e produz tarefas a partir de comandos inseridos pelos utilizadores.

Nos últimos dias, várias pessoas que testaram a IA identificam que as ilustrações estavam equivocadas e publicaram esses resultados nas redes sociais.

Numa publicação no X (ex-Twitter), a Google reconheceu que o Gemini “apresenta imprecisões em algumas representações históricas” e que está já em cima do assunto para corrigir o problema.

Conforme podemos ver em cima, num dos erros identificados, um utilizador pede para que o Gemini gere imagens de soldados alemães em 1943, na era nazi. A tecnologia, então, devolve com fotos de militares negros.

A ferramenta também gerou imagens de pessoas não brancas quando foi solicitada foto dos Pais Fundadores dos Estados Unidos (Founding Fathers), que, na verdade, são todos homens brancos.

 

Sabe o que é o Gemini?

O Gemini é um modelo de Inteligência Artificial (IA) desenvolvido pela Google como o sistema mais poderoso já criado por sua equipa. Funcionava como o “motor” do Bard (concorrente do ChatGPT). No início deste mês, a empresa decidiu “matar” o nome Bard para adotar de vez o Gemini.

Segundo a gigante das pesquisas, desde o início, o Gemini foi pensado para ser uma ferramenta “multimodal”, podendo trabalhar com diferentes tipos de informação, como texto, áudio, códigos, imagem e vídeo. Agora, a empresa comunicou que estava a liberar o recurso de geração de imagens dentro do Gemini.

A Google afirma que, assim como toda a IA, o Gemini está sujeito ao problema de alucinação, um erro que faz a resposta de um robô incluir informações incorretas, tendenciosas ou sem sentido. No entanto, o Gemini é capaz de fazer as melhores avaliações de segurança de uma IA já criada pela sua equipa, dizem. O objetivo é que ela seja capaz de evitar conteúdo violento ou estereotipado, por exemplo.

Desde o lançamento do ChatGPT, em novembro de 2022, a Google tem se esforçado para produzir um software de IA que rivalize com a solução da OpenAI, que é apoiada pela Microsoft.

Exit mobile version