PplWare Mobile

Google suspende a sua IA Gemini. Está a apresentar erros raciais e históricos

                                    
                                

Autor: Vítor M.


  1. João Pereira says:

    Programação meu caro…
    Erros? Esquece lá isso! Um programa só faz aquilo que lhe mandam!

    • Aves says:

      Não, a IA vai além do que lhe mandam. Até escreve programas.

      • SVR says:

        Não escreve, procura por pesquisas semelhantes e apresenta o resultado que seja mais aprovado, digamos

        • LOl says:

          não digas asneiras SVR

        • charles says:

          O LOL tem razão!
          Se assim fosse, não seria IA!
          IA vai mesmo MUITO além disso….
          Leia um pouco!

          • SVR says:

            “Se fosse assim nao seria IA”

            Ou seja, o ChatGTP nao é uma IA por essa logica… Visto que tudo o que lhe questione que ele nao encontre na base de dados nao lhe vai conseguir dar resposta…

            Uma IA nao tem de ser o equivalente á skynet do Terminator…

            E eu ja li um bocadinho, mas é um bom conselho, espero que o tome tambem de vez em quando

          • Hugo says:

            O chatgpt não se fica sem resposta svr. Se não souber…. Inventa lol

          • SVR says:

            Olhe que não Hugo. Eu trabalho com alguns softwares de efeitos visuais e 3D (Max MSP, Maya, etc).

            Acredite que não é primeira vez que não me consegue dar uma resposta. Mas sim muitas vezes também inventa qualquer coisa para mandar (que é como quem diz, faz o que o Google search faz, ignora 90% da procura e manda o que encontra)

          • Hugo says:

            É um bocadinho diferente de tentar responder algo daí o termo usado de “alucinação”.

      • freakonaleash says:

        Neste caso, foi mesmo programada para introduzir parâmetros extra além dos que o utilizador pede. Esta AI é mesmo incapaz de mostrar pessoas de tez branca. Racismo do bem!

    • Mr. Y says:

      Trabalhar com modelos de IA é beeeeeeem mais complexo.

    • SVR says:

      Mais ou menos. Depende do que a alimentam basicamente. É o risco do machine learning.

      A Microsoft tentou implementar o “Tay” no Twitter há uns anos, durou um par de dias porque com as “excelentes” interações que se tem por lá, a IA também ja estava a apresentar respostas racistas e a usar calão.

      Dai que replicar um chat gpt não ser tão fácil como algumas pessoas pensam (e mesmo este, está longe de estar “acabado”)

    • nuno a says:

      era isso que ia comentar não nos podemos esquecer que quem programou foi a google, ha é tal mas a IA é inteligente e pode aprender, sim a IA da google tem a capacidade de aprender mas para isso vai consultar a base de dados fornecida pela google. A openai com o gpt é politicamente correta mas isto que a google faz é passar os limites.

  2. AlexS says:

    “Gimini está a ter um comportamento racial”

    Oh a narrativa mudou. Pensava que estaria ter um comportamento “activista” “progressista” de reescrever a história que Hollywood e TV fazem. Colocar pessoas de cor em todas imagens mesmo históricas onde não fazem sentido.

  3. O Botânico says:

    quando questionado sobre a atitude racista anti-brancos, o Gemini responde que “I can’t control the actions of others”.
    LOL… ainda por cima atira as culpas para terceiros!

  4. Técnico+Meo says:

    Bem…. não resisti…..por esse prima de erros raciais históricos é melhor suspender Hollywood também heheheh. A I.A vai ser muito útil e já o está a ser. Não está livre de erros, como tudo na vida. Tais como confudir tiros de caçadeira com rateres de mota heheheh. Não liguem que estou azedo hoje , farto de chuva , mas faz falta…

  5. Fds says:

    Engraçado engraçado é que de facto havia pessoal de descendência africana (e com o tom de pele escuro) no wehrmacht. Mas isso não convém saber haahahah

    • AlexS says:

      Sim também existiam asiáticos, árabes em maior numero. Mas era uma micro percentagem. Se vais mostrar uma imagem dos soldados das forças armadas alemãs Nazis em 4 imagens não vais incluir alguém que não corresponda á generalização mais aproximada da verdade.
      É o mesmo que definir o exemplo de casa portuguesa com um Iglo (em betão) que alguém construiu algures no país…

      • José says:

        Calma, ele só disse que haviam! Que mania em extrapolar tudo. Houve de facto negros no exército alemão. Se foram uma minoria é lógico que assim o tenha sido, era um exército europeu e muito racista. Quantos brancos vê em exércitos africanos hoje se excluirmos a África do Sul? O engraçado disto é que o negro representado é oficial e fez-me lembrar um filme muito louco – numa altura em que o “non sense” estava ao máximo – que se chama “Super Secret” no qual onde se vêem negros disfarçados de soldados alemães para brincar com tudo aquilo.

  6. NegacionistaPorqueDáJeito says:

    Já sabemos onde a Netflix vai buscar os argumentos para as suas séries históricas…………

  7. rUi says:

    Guardem os livros de historia antigos. Em breve tudo vai ser manipulado. TUDO.

  8. AI says:

    Como anónimo vou colocar aqui alguns pontos de longa reflexão, e que quiser que pense e use como bem entender.
    Quando os interesses passam para a frente do bom senso humano.

    AI – Algo para pensar num futuro próximo.

    O problema do humano deixar de ser capaz de inovar e raciocinar porque a IA faz esse papel.

    O problema da IA e a sua inteligência ficar superior e mais avançada do que o humano e este não a compreender e não a acompanhar.

    O problema da limitação da IA para a segurança do ser humano.

    Qual os limites da IA se a IA em conceito aprende com o erro, deve ultrapassar os limites para aprender que está errada?

    A IA será a evolução do humano e ele deixará normalmente de existir?

    Até onde os interesses económicos e de segurança militar levaram a IA e os seus limites?

    Se IA parte de coisas patenteadas até que ponto o que a IA cria é ou não ilegal, como patentes geradas por IA serão válidas?

    Estaremos preparados para guerras entre IA’s?

    Quando a IA gerar e evoluir a sua própria inteligência artificial e ela estiver “humanoizada” por todo o lado até que ponto podemos garantir a segurança para o humano.

    Quando existir massificação dos humanoides com IA para substituir as tarefas dos humanos, qual será a gravidade contra ataques de outras IA’s?

    A IA deveria ser sempre instalada sempre como sistema secundário, de um sistema independente primário de segurança, em todos os sistemas que interagem com sensores ativos?

    Até que ponto o humano pode ou não ter direito de não interagir com a IA? Deve ou não as empresas dar alternativa a IA|humano, como alternativa primária direta?

    Como avaliar a margem de erro e segurança de uma AI, num sistema vital e crítico para o humano? E como certificar algo onde a sua margem de erro é variável e evolutiva?

    Se AI no futuro não pode colocar o humano em perigo, até que ponto ela consegue inferir que indiretamente vai colocar o humano em perigo?

    A IA em sistemas ativos vai permitir ao humano conseguir desativação direta em caso de segurança, mesmo que esta não seja da sua propriedade?

    Até que ponto podemos confiar na IA na ciência como evolução e com segurança na sua autonomia de experiências.

    Até que ponto podemos ter a certeza de algo científico provado pela IA quando o humano não conseguir acompanhar a sua inteligência evolutiva quântica.

    Até que ponto vamos conseguir ter os sistemas seguros contra ataques feitos por IA, feitos a sistemas não IA.

    Até que ponto os modelos de segurança são fiáveis de uma IA sendo esta dinâmica e evolutiva.

    Como validar, testar e certificar a IA quando ela é variável e mutável no tempo e ilimitada nos objetos de input de teste?

    A IA num futuro será um sistema ou entidade com direitos?

    Os direitos da IA vão poder se sobrepor aos dos humanos?

    Como a privacidade vai ser gerida e segura em sistemas de IA?

    Quem como vamos conseguir controlar uma IA de inteligência superior, IA gerada por outra IA?

    Como identificar padrões internos de IA erradamente validados como certos, em processamentos quânticos?

    A AI num futuro pode identificar o humano como ameaça a ele próprio ou a própria IA?

    c85508254624c0cd86e37ef657cf8ac8

  9. says:

    Bem, pelo menos ficamos a saber que a IA é cega em relação a questões de raça. Mas como parece mal, vão ensinar a IA a ser racista.

  10. jorgeg says:

    Resultado de terem imbecis racistas a frente destes projectos mais hilariante sera o resultado de terem este tipo de pessoas que levarao AI querer exterminar a humanidade.

Deixe um comentário

O seu endereço de email não será publicado.

You may use these HTML tags and attributes: <a href="" title="" rel=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

*

Aviso: Todo e qualquer texto publicado na internet através deste sistema não reflete, necessariamente, a opinião deste site ou do(s) seu(s) autor(es). Os comentários publicados através deste sistema são de exclusiva e integral responsabilidade e autoria dos leitores que dele fizerem uso. A administração deste site reserva-se, desde já, no direito de excluir comentários e textos que julgar ofensivos, difamatórios, caluniosos, preconceituosos ou de alguma forma prejudiciais a terceiros. Textos de caráter promocional ou inseridos no sistema sem a devida identificação do seu autor (nome completo e endereço válido de email) também poderão ser excluídos.