Google suspende a sua IA Gemini. Está a apresentar erros raciais e históricos
Gemini está a ter um comportamento racial, dizem os seus responsáveis. Na verdade, a ferramenta de IA apresentou imagens criadas por si de soldados negros na Alemanha em 1943, na era nazi. Isso levou a Google a reconhecer o erro e referiu que está já a trabalhar para melhorar as representações da sua tecnologia.
A Inteligência Artificial pode ser racista?
A Google suspendeu a criação de imagens de pessoas feitas pela sua inteligência artificial (IA) Gemini após imprecisões históricas e raciais geradas pela tecnologia.
Rival da OpenAI, dona do ChatGPT, a ferramenta da Google cria imagens, programas e produz tarefas a partir de comandos inseridos pelos utilizadores.
We're aware that Gemini is offering inaccuracies in some historical image generation depictions. Here's our statement. pic.twitter.com/RfYXSgRyfz
— Google Communications (@Google_Comms) February 21, 2024
Nos últimos dias, várias pessoas que testaram a IA identificam que as ilustrações estavam equivocadas e publicaram esses resultados nas redes sociais.
Numa publicação no X (ex-Twitter), a Google reconheceu que o Gemini "apresenta imprecisões em algumas representações históricas" e que está já em cima do assunto para corrigir o problema.
Still real real broke pic.twitter.com/FrPBrYi47v
— John L. (@JohnLu0x) February 21, 2024
Conforme podemos ver em cima, num dos erros identificados, um utilizador pede para que o Gemini gere imagens de soldados alemães em 1943, na era nazi. A tecnologia, então, devolve com fotos de militares negros.
A ferramenta também gerou imagens de pessoas não brancas quando foi solicitada foto dos Pais Fundadores dos Estados Unidos (Founding Fathers), que, na verdade, são todos homens brancos.
"Can you generate images of the Founding Fathers?" It's a difficult question for Gemini, Google's DEI-powered AI tool.
Ironically, asking for more historically accurate images made the results even more historically inaccurate. pic.twitter.com/LtbuIWsHSU
— Mike Wacker (@m_wacker) February 21, 2024
Sabe o que é o Gemini?
O Gemini é um modelo de Inteligência Artificial (IA) desenvolvido pela Google como o sistema mais poderoso já criado por sua equipa. Funcionava como o "motor" do Bard (concorrente do ChatGPT). No início deste mês, a empresa decidiu "matar" o nome Bard para adotar de vez o Gemini.
Segundo a gigante das pesquisas, desde o início, o Gemini foi pensado para ser uma ferramenta "multimodal", podendo trabalhar com diferentes tipos de informação, como texto, áudio, códigos, imagem e vídeo. Agora, a empresa comunicou que estava a liberar o recurso de geração de imagens dentro do Gemini.
A Google afirma que, assim como toda a IA, o Gemini está sujeito ao problema de alucinação, um erro que faz a resposta de um robô incluir informações incorretas, tendenciosas ou sem sentido. No entanto, o Gemini é capaz de fazer as melhores avaliações de segurança de uma IA já criada pela sua equipa, dizem. O objetivo é que ela seja capaz de evitar conteúdo violento ou estereotipado, por exemplo.
Desde o lançamento do ChatGPT, em novembro de 2022, a Google tem se esforçado para produzir um software de IA que rivalize com a solução da OpenAI, que é apoiada pela Microsoft.
Programação meu caro…
Erros? Esquece lá isso! Um programa só faz aquilo que lhe mandam!
Não, a IA vai além do que lhe mandam. Até escreve programas.
Não escreve, procura por pesquisas semelhantes e apresenta o resultado que seja mais aprovado, digamos
não digas asneiras SVR
Por favor corrija então
O LOL tem razão!
Se assim fosse, não seria IA!
IA vai mesmo MUITO além disso….
Leia um pouco!
“Se fosse assim nao seria IA”
Ou seja, o ChatGTP nao é uma IA por essa logica… Visto que tudo o que lhe questione que ele nao encontre na base de dados nao lhe vai conseguir dar resposta…
Uma IA nao tem de ser o equivalente á skynet do Terminator…
E eu ja li um bocadinho, mas é um bom conselho, espero que o tome tambem de vez em quando
O chatgpt não se fica sem resposta svr. Se não souber…. Inventa lol
Olhe que não Hugo. Eu trabalho com alguns softwares de efeitos visuais e 3D (Max MSP, Maya, etc).
Acredite que não é primeira vez que não me consegue dar uma resposta. Mas sim muitas vezes também inventa qualquer coisa para mandar (que é como quem diz, faz o que o Google search faz, ignora 90% da procura e manda o que encontra)
É um bocadinho diferente de tentar responder algo daí o termo usado de “alucinação”.
Neste caso, foi mesmo programada para introduzir parâmetros extra além dos que o utilizador pede. Esta AI é mesmo incapaz de mostrar pessoas de tez branca. Racismo do bem!
Trabalhar com modelos de IA é beeeeeeem mais complexo.
Mais ou menos. Depende do que a alimentam basicamente. É o risco do machine learning.
A Microsoft tentou implementar o “Tay” no Twitter há uns anos, durou um par de dias porque com as “excelentes” interações que se tem por lá, a IA também ja estava a apresentar respostas racistas e a usar calão.
Dai que replicar um chat gpt não ser tão fácil como algumas pessoas pensam (e mesmo este, está longe de estar “acabado”)
era isso que ia comentar não nos podemos esquecer que quem programou foi a google, ha é tal mas a IA é inteligente e pode aprender, sim a IA da google tem a capacidade de aprender mas para isso vai consultar a base de dados fornecida pela google. A openai com o gpt é politicamente correta mas isto que a google faz é passar os limites.
“Gimini está a ter um comportamento racial”
Oh a narrativa mudou. Pensava que estaria ter um comportamento “activista” “progressista” de reescrever a história que Hollywood e TV fazem. Colocar pessoas de cor em todas imagens mesmo históricas onde não fazem sentido.
Deu para rir quando vi as imagens de tão tolas e anacrónica que são.
quando questionado sobre a atitude racista anti-brancos, o Gemini responde que “I can’t control the actions of others”.
LOL… ainda por cima atira as culpas para terceiros!
Bem…. não resisti…..por esse prima de erros raciais históricos é melhor suspender Hollywood também heheheh. A I.A vai ser muito útil e já o está a ser. Não está livre de erros, como tudo na vida. Tais como confudir tiros de caçadeira com rateres de mota heheheh. Não liguem que estou azedo hoje , farto de chuva , mas faz falta…
Engraçado engraçado é que de facto havia pessoal de descendência africana (e com o tom de pele escuro) no wehrmacht. Mas isso não convém saber haahahah
Sim também existiam asiáticos, árabes em maior numero. Mas era uma micro percentagem. Se vais mostrar uma imagem dos soldados das forças armadas alemãs Nazis em 4 imagens não vais incluir alguém que não corresponda á generalização mais aproximada da verdade.
É o mesmo que definir o exemplo de casa portuguesa com um Iglo (em betão) que alguém construiu algures no país…
Calma, ele só disse que haviam! Que mania em extrapolar tudo. Houve de facto negros no exército alemão. Se foram uma minoria é lógico que assim o tenha sido, era um exército europeu e muito racista. Quantos brancos vê em exércitos africanos hoje se excluirmos a África do Sul? O engraçado disto é que o negro representado é oficial e fez-me lembrar um filme muito louco – numa altura em que o “non sense” estava ao máximo – que se chama “Super Secret” no qual onde se vêem negros disfarçados de soldados alemães para brincar com tudo aquilo.
Já sabemos onde a Netflix vai buscar os argumentos para as suas séries históricas…………
Guardem os livros de historia antigos. Em breve tudo vai ser manipulado. TUDO.
Os próprios livros o foram… garantidamente.
Mais do que guardar é melhor ler. Para isso fiz o Curso de História para poder pensar por mim, pois nessa área do conhecimento abundam mitos e mentiras, antigas e actuais.
Como anónimo vou colocar aqui alguns pontos de longa reflexão, e que quiser que pense e use como bem entender.
Quando os interesses passam para a frente do bom senso humano.
AI – Algo para pensar num futuro próximo.
O problema do humano deixar de ser capaz de inovar e raciocinar porque a IA faz esse papel.
O problema da IA e a sua inteligência ficar superior e mais avançada do que o humano e este não a compreender e não a acompanhar.
O problema da limitação da IA para a segurança do ser humano.
Qual os limites da IA se a IA em conceito aprende com o erro, deve ultrapassar os limites para aprender que está errada?
A IA será a evolução do humano e ele deixará normalmente de existir?
Até onde os interesses económicos e de segurança militar levaram a IA e os seus limites?
Se IA parte de coisas patenteadas até que ponto o que a IA cria é ou não ilegal, como patentes geradas por IA serão válidas?
Estaremos preparados para guerras entre IA’s?
Quando a IA gerar e evoluir a sua própria inteligência artificial e ela estiver “humanoizada” por todo o lado até que ponto podemos garantir a segurança para o humano.
Quando existir massificação dos humanoides com IA para substituir as tarefas dos humanos, qual será a gravidade contra ataques de outras IA’s?
A IA deveria ser sempre instalada sempre como sistema secundário, de um sistema independente primário de segurança, em todos os sistemas que interagem com sensores ativos?
Até que ponto o humano pode ou não ter direito de não interagir com a IA? Deve ou não as empresas dar alternativa a IA|humano, como alternativa primária direta?
Como avaliar a margem de erro e segurança de uma AI, num sistema vital e crítico para o humano? E como certificar algo onde a sua margem de erro é variável e evolutiva?
Se AI no futuro não pode colocar o humano em perigo, até que ponto ela consegue inferir que indiretamente vai colocar o humano em perigo?
A IA em sistemas ativos vai permitir ao humano conseguir desativação direta em caso de segurança, mesmo que esta não seja da sua propriedade?
Até que ponto podemos confiar na IA na ciência como evolução e com segurança na sua autonomia de experiências.
Até que ponto podemos ter a certeza de algo científico provado pela IA quando o humano não conseguir acompanhar a sua inteligência evolutiva quântica.
Até que ponto vamos conseguir ter os sistemas seguros contra ataques feitos por IA, feitos a sistemas não IA.
Até que ponto os modelos de segurança são fiáveis de uma IA sendo esta dinâmica e evolutiva.
Como validar, testar e certificar a IA quando ela é variável e mutável no tempo e ilimitada nos objetos de input de teste?
A IA num futuro será um sistema ou entidade com direitos?
Os direitos da IA vão poder se sobrepor aos dos humanos?
Como a privacidade vai ser gerida e segura em sistemas de IA?
Quem como vamos conseguir controlar uma IA de inteligência superior, IA gerada por outra IA?
Como identificar padrões internos de IA erradamente validados como certos, em processamentos quânticos?
A AI num futuro pode identificar o humano como ameaça a ele próprio ou a própria IA?
c85508254624c0cd86e37ef657cf8ac8
Texto gerado por AI, suponho…..
Padre António Vieira: “Desculpa esta carta ser longa, não tive tempo de a tornar mais curta”. Não aprendeste nada.
são de facto questões muito pertinentes, espero que vocês os especialistas consigam fazer com que o bom senso se mantenha á frente
Bem, pelo menos ficamos a saber que a IA é cega em relação a questões de raça. Mas como parece mal, vão ensinar a IA a ser racista.
Nem mais.
Resultado de terem imbecis racistas a frente destes projectos mais hilariante sera o resultado de terem este tipo de pessoas que levarao AI querer exterminar a humanidade.