PplWare Mobile

Google Photos identificou duas pessoas negras como Gorilas

                                    
                                

Este artigo tem mais de um ano


Autor: Pedro Simões


  1. Rúben M. says:

    A culpa foi da duck face 😀

  2. David Guerreiro says:

    São daquelas histórias da treta, usam racismo como desculpa para tudo. Qualquer pessoa vê que foi um erro do algoritmo que identifica as imagens, não foi propositado.

    • greennotebook says:

      Se fosse contigo.. Abrias a app e numa foto da tua capa aparecia a legenda: Porco da Índia. Acho que ias adorar e bater palmas ..
      Claro que a culpa não foi de ninguém, agora também não digas que é normal e que não tem mal nenhum ..

    • miguel says:

      claro e se as semelhanças forem muitas, é difícil explicar a diferença a um maquina “programar”.

    • Mota says:

      +1

      Mai nada! É isso mesmo! As pessoas fazem tudo para serem vitimas e chamarem atenção.

      Oh Pedro Simões
      “..revela uma postura xenófoba pode parte dos mecanismos automáticos da Google”

      REALLY?! Essa frase foi desnecessária e infeliz.

      • KaYs3r says:

        É ridículo alguém dizer que um algoritmo é xenófobo. Podem dizer que tem falhas, que não faz o que devia, entre outras coisas…

        • Vítor M. says:

          Não quer dizer que seja, mas também não quer dizer que não possa ser programado para tal… atenção. Cuidado com o pores o pescoço no cepo pelo programador 😉

          Mas vamos pensar, claro, que se tratou de uma má programação, um erro grosseiro!

          • YaBa says:

            Era um easter egg 🙂 🙂

          • Macb says:

            Menos… Vocês são cada vez mais tendenciosos querem é que a malta discuta aqui nos comentários! Podem ter a certeza quanto a mim fartei me deste tipo de notícias com frases como as tuas e digo isto porque uso tanto serviços da Apple como Microsoft como Google! Mas irrita.
            Continuações

          • Monteiro says:

            Então também não venham dizer que a DuckDuckGo é nossa amiga porque vocês não sabem as verdadeiras intenções deles.

  3. Dr1v3r says:

    Só um “aviso à navegação”, tenho vários amigos que consideram “cor negra” como sendo racista e uma ofensa para com eles, dizem-se “pretos”… Também conheço quem diga o contrário, tentem algo “a meio caminho”…

  4. Gerardo says:

    Apesar de não existir um culpado formal, é algo extremamente desagradável e preconceituoso, que ofende e que revela uma postura xenófoba pode parte dos mecanismos automáticos da Google.

    hahahahahahahahahahahahahha Algoritmos xenófobos ???

    • Vítor M. says:

      🙂 não sabes o que está por trás da programação 😉

      Repara bem, se o algoritmo “olhasse” para a foto e na dificuldade (se não fosse programado para identificar gorilas) colocasse “desconhecido” o género, ofendia alguém?

      Foi programado para naquelas circunstâncias classificar como Gorilas, ou na tua inteligência achas que “foi à sorte” 😀

      Óbvio que houve por trás um erro de programação e que aposto que já está corrigida 😉

      • trapoi says:

        falou e disse
        ++1

      • Gerardo says:

        Disseste tudo e não disseste nada. Um erro é um erro, não é xenofobia. Um algoritmo não pode ser xenófobo, nem querido nem do Benfica. Tem um conjunto de regras e devolve um resultado. Eu também já olhei para uma pessoa à distância e disse que era a Maria e depois verifiquei que afinal era a Joana.

        Não acredito que estes algoritmos possam ser infalíveis porque nem nós somos infalíveis. Até um humano numa operação simples de saber se alguém é masculino ou feminino falha.

        • Vítor M. says:

          Não podem? Podem, se forem programados podem. Podem ter tendências, podem ser mais ou menos intuitivos, podem ser mais ou menos precisos, podem ser racistas se forem programados para isso, podem ser mais ou menos humanos se o conceito de humanidade for compilado. Podem ter comportamentos educados, ou não, podem ser programados para serem o que o programador quiser. Sabes bem que é verdade.

          Se me dizes que foi um erro, sim claro que acredito que foi um erro e o facto de um erro provocar um “entendimento” xenófobo por parte de quem se sentiu ofendido, não quer dizer que o programador seja xenófobo, mas programou de forma a identificar aquele padrão de cor (expressão) com gorilas. Poderia ser programado para não identificar com gorilas e sim com outra coisa qualquer, ou até como nada ou desconhecido…

          • Zaark says:

            Imagino um programador a implementar à mão um sistema de reconhecimento com os moldes que falas…
            Isto só pode ser um sistema de aprendizagem, e isso significa uma coisa: o sistema ainda é recente para conseguir distinguir um humano de um gorila em certos casos específicos. São precisas milhões de fotos categorizadas para o sistema conseguir fazer uma identificação quase 100% correcta.
            Estou mesmo a inaginar na Google, “Hoje vamos implementar o reconhecimento de formigas”… LOL

          • Vítor M. says:

            🙂 ok, ficamos assim!

          • piri_vm says:

            A questão é que eles nessa foto parecem mesmo gorilas.

        • Moreira says:

          O nosso amigo inteligente fala em algoritmo como se nesse caso ele tivesse vontade própria e se auto programasse, caramba! Qual é a parte do programa ter sido “programado” por alguém (pessoa) e nao uma coisa que o nosso amigo nao entendeu? Espera ai! Sabe algo de programação? senão vamos ficar aqui até 2023 na mesma lenga lenga, lógico que foi um erro de programação, voluntário? Nao sei, mas isso minimiza o erro? Epa, eles que corrijam la a coisa e todo mundo fica feliz

          • MusclePharm says:

            Já notei que aqui o amigo sempre é alvo de polémica nos seus artigos, porque será? Custa-lhe assim tanto admitir um erro. Acho que sim, pela degradação da qualidade de posts do pplware (já venho ca fazem anos) da censura de posts sem explicação, pelos titulos de artigos enganosos (também conhecido por publicidade enganosa). Continuem assim, já agora, censurem este post so porque não gostam de ouvir verdades.

          • MusclePharm says:

            E antes que apareça aqui um polícia gramatical, sim é isso mesmo que você compreendeu, posts = comentários.

          • YaBa says:

            Moreira, pesquise sobre redes neurais.
            Digamos que temos uma rede neural para identificar macacos.
            As redes neurais são TREINADAS com exemplos.
            Digamos que eu, como piada, meto lá umas fotos pelo meio do Kanye West para que a rede neural assuma que ele também é considerado macaco.

            Aplique-se este pseudo-exemplo em fotos reais, o que acha que acontece?

            Esclarecido?

  5. João says:

    Essa foto vista ao longe, pode originar enganos

  6. daiquiri says:

    E parecem gorilas nas fotos. Mas ninguem tem coragem de dizer.

    E como o pessoal é ignorante não entendem que isto não tem nada de racismo. é apenas um algoritmo, mas whatever

    • Vítor M. says:

      Achas? :O Eu vejo pessoas, não gorilas, mas cada um é responsável pelo que vê. Mas não me surpreende, já tinha dado conta que muita gente é “enxerga muito mal”…

      • daiquiri says:

        não é isso vitor. algoritmicamente é fácil de perceber que um software de reconhecimento de imagem faça essa confusão!

        Cor predominantemente preta, lábios para fora, nariz achatado etc.

        Para um algoritmo inovador, brutalmente avançado para os dias de hoje, self learning que usa uma rede neural então fazer esta confusão é natural.

        Só quem não entende o grau de complexidade que é a análise de imagens e contexto, e o que o google conseguiu de brutal de fazer reconhecimento automatico de contexto é que vê racismo aqui

        • Vítor M. says:

          Falas bem, brutal reconhecimento automático, que tem de ser afinado.

          Obviamente que foi uma questão de erro do próprio algoritmo, sem dúvida, mas o problema aqui são os fundamentos, a razão pelo facto de nesta conjuntura a app identificar as pessoas, porque são pessoas, com gorilas, se não são gorilas e falamos numa tecnologia brutal de reconhecimento. Quando a app não tem certezas, usa a opção “ao calhas”? Não, está programada para atribuir uma categoria aproximada… neste caso foi gorila (penso eu). É aí que quero chegar.

  7. shapeshifter says:

    ahahaha. A google devia colocar um aviso: ” em ambientes escuros, ligar o flash”…

  8. Hélio Mendonça says:

    Reconheço que a situação é incómoda mas só toma estas proporções face ao clima social em que vivemos (nomeadamente do lado de lá do Atlântico).
    Interrogo-me se numa foto saturada com luz, dois caucasianos fossem etiquetados de “bonecos de neve”, se ocorreriam os mesmos protestos ou se originariam apenas gargalhadas!
    Pessoalmente acho os gorilas uns bichos muito simpáticos e que a maldade está na mente das pessoas e não nos algoritmos informáticos!

    • Vítor M. says:

      Pois, lá está, mas isso também tem de ser acautelado pela Google, mais sendo uma empresa “do lado de lá”… e lá está, quando não sabe, porque numa foto tem de identificar rostos sendo animais? É parvo, digo eu!!!

      Se um dia não conhecer um tipo moreno cabeçudo com cabelo branco vai dizer que é um babuíno? É estúpido o algoritmo!

      Mas tem razão o Hélio de facto!

    • NewJ says:

      O mal é que sempre houve um racismo preconceituoso que compara negros com este tipo de situações.. Se um branco fosse confundido com um gorila branco das neves, já nao haveria esta polêmica porque não ha um historial com este problema.
      Acrescento que algumas pequenas minorias e outras pessoas que se fazem vitimas, são na verdade os seres mais racistas que existem, que simplesmente nao se querem mistrurar ou integrar com o resto da população..

      • Vítor M. says:

        Provavelmente haveria, mas numa dimensão menos e isso mostra a sensibilidade do tema, mais do outro lado do atlântico, onde as coisas estão meio extremadas. Tens razão numa parte mas atenção aos exemplos, a mentalidade americana ainda não é como pensas!

  9. Sérgio E. says:

    “revela uma postura xenófoba pode parte dos mecanismos automáticos da Google”

    não sabia que mecanismos automáticos podiam ser classificados como xenófobos (ou como outra coisa qualquer, já agora). Enfim, vivendo e (des)aprendendo…

    • Vítor M. says:

      Se foram programados não podem? Não sabia!!!!

      • Zaark says:

        Em bom português, não.
        “Xenófobo” é uma característica atribuível a seres vivos.
        O algoritmo não é xenófobo. É que sinceramente eu digo isto e nem faz sentido! Algoritmo xenófobo?? Algoritmo??
        Vitor, as pessoas estão a apontar a questão do português e é verdade. Nós entendemos onde querias chegar, mas o adjectivo foi aplicado a algo que não pode ser adjectivado com uma característica de um ser vivo – puro português, nada mais.

        • Vítor M. says:

          As pessoas estão a olhar apenas para o significado e não para o conceito generalista, só porque não querem perceber do que se trata. “A xenofobia pode manifestar-se de várias formas, envolvendo as relações e percepções do endogrupo em relação ao exogrupo, incluindo o medo de perda de identidade, suspeição acerca das suas atividades….”

          xenofobia é muito mais do que estás a referir, é diferente do racismo, é algo que se estende a vários estados de percepção e de compreensão. Aqui, e em todos os sites que falaram sobre o assunto, relaciona-se este exemplo da identificação de pessoas a gorilas porque o algoritmo foi programado para fazer isso, ponto. Quem não quer entender… na boa, 🙂 por mim é à vontade do freguês, não querem não entendam, se não fosse como estou a dizer, teimavam e deixavam estar como estava, mas não, a Google tratou de afinar o que tinha afinação 😉 portanto… eles perceberam o que se passou e se fosse como muitos ilustres andam aqui a dizer, deixavam estar, pronto.

          As pessoas em causa sentiram-se atingidas, caso contrario nem ligavam, logo, houve uma reacção ao sucedido. Não se trata de puro português, a expressão até está entre aspas para “ajudar” a perceber o que está em causa. 🙂 Algumas pessoas, gostam é de complicar e que é fácil de perceber.

          • Zaark says:

            Eu acho que a complicação não está a vie deste lado: volto a referir que entendemos tudo isso.
            Assente que está este ponto (creio), falaste bem da xenofobia, mas continua a ser um sentimento ou conjunto de sentimentos que levam ao repúdio de algo ou alguém estrangeiro. O algoritmo não sente – é só isso que várias pessoas têm dito.
            O algoritmo… ele não foi programado para identificar dois indivíduos como gorilas, é preciso algum cuidado a dizer isto 😉
            O algoritmo reconhece padrões, mas neste caso notou-se uma falta de afinação quase de certeza por quantidade e/ou qualidade insuficientes dos padrões categorizados apresentados anteriormente ao sistema. Infelizmente foram duas pessoas “chamadas” de gorilas. Mas ainda me lembro dos primórdios desta tecnologia e das gargalhadas que todos dávamos com os erros mais hilariantes que podia haver.
            Estamos a assistir ao mesmo problema dessa época, todavia a uma escala mais limitada, específica e, infelizmente, sensível.

          • Vítor M. says:

            Pois é, disseste muito bem, antes era divertido, cada vez mais é aborrecido e em muitos casos insultuoso. Claro que as máquinas “não têm” culpa, mas são programadas por humanos, e as máquinas são levadas a assumir a culpa, do estilo “foi um erro do algoritmo”, pois foi, foi um erro de quem programou o algoritmo. É diferente 😉

          • Zaark says:

            Neste caso, não foi do algoritmo em si. Basta ler o suficiente acerca de self-learning para se perceber isso mesmo. O algoritmo é um de reconhecimento de padrões e aprendizagem – os erros cometidos prendem-se essencialmente com insuficiência de amostras identificadas para o sistema conseguir fazer as distinções correctas. O sistema sabe o que é um gorila com base em milhares e milhares de imagens que lhe foram apresentadas como sendo de gorilas, e o mesmo pra humanos – não foi nenhum programador que fez “à pata” o código de identificação de um gorila, um humano, uma árvore, etc etc – é inconcebível.
            Por isso, sim, em self-learning o sistema cometeu um erro por falta de amostras. O afinamento passa por mais aprendizagem e possivelmente algum ajuste no código de aprendizagem – o que se ao reflectir em todas as categorias e não apenas na de gorilas e humanos.

          • Vítor M. says:

            Lê sobre a reacção da Google e pronto.

          • Zaark says:

            Meanwhile, vários comentários aprovados e o meu por (des)aprovar. Neste momento podem-me passar muitos motivos pela cabeça, mas creio no melhor de cada pessoa.

          • Vítor M. says:

            Não vejo nenhum no sistema de aprovação. Pesquisa bem sff.

  10. rui says:

    Será que vou para o inferno por me rir disto? Mas sim, concordo: usam o racismo como desculpa para tudo. Eles próprios, entre eles, chamam-se de “pretos”. Se alguém de fora do grupo o chamar, já há problemas. A nós se nos chamarem de brancos ainda nos rimos… Às vezes arranjam-se problemas onde não existem.

  11. Ricardo Ruivo says:

    Pedro Simoes olha lá a tua frase “Apesar de não existir um culpado formal, é algo extremamente desagradável e preconceituoso, que ofende e que revela uma postura xenófoba pode parte dos mecanismos automáticos da Google.” foi da tua autoria ou transcrita???
    Como é que um algoritmos pode ser desagradável, preconceituoso, xenófobo se eles operam sobre os pixeis da imagem??? primeiro eles nem sabem o que la está e segundo, no mínimo, seria quem os programadores a ter esses adjetivos, e não um código matemático que opera de forma automática.

  12. Mark says:

    Se fossem albinos, é que eu ficaria espantado …..

  13. António Pereira says:

    Há muito que o termo xenofobia perdeu o seu significado por tantas vezes que é mal usado.

  14. Sr Passos coelho says:

    E bom sinal….
    Querer dizer que são fortes 😉

  15. Afonso says:

    provavelmente avaliou bem. Antes que comessem com comentários racista, não sou nada disso, passo a explicar.
    Penso que o algoritmo o que faz é encontrar na internet padrões em imagens semelhantes , a forma como a foto foi tirada a posição do cabelo e o tom de pele, pode ter uma taxa de acerto seja muito alta em comparação com fotos de gorilas existentes, um exemplo disso é por exemplo aquelas imagens tiradas em marte que parecia se ver um home a caminhar, provavelmente o google photos, diria que se tratava de uma pessoa a caminhar.

  16. Jonas says:

    O problema do racismo é que não tem raça definida. Qualquer um pode ser racista, branco, negro, azul, cinzento.

    E as palavras não valem apenas pelas letras que as compõem. Se dois amigos se tratam aos palavrões, não quer dizer que se estão a matar, estão é à vontade o suficiente para tal.

    Também é possível utilizar as palavras mais correctas possíveis, e ser-se muito desagradável.

    Resumindo, mais do que as palavras, acredito que se deve ter em conta a intenção, ou sentimento, da pessoa que as profere. Isso é que conta.

    Por isso à quem se sinta ofendido com isto e com aquilo.

    Eu acho que quem é, não se deve sentir ofendido. Não me ofendem com a palavra da minha cor. Acima de tudo acredito que o rácismo é digno de repúdio, e não tem nada de racional ou bem intencionado como fundamentação. Mas tudo isso também se aplica à vitimização.

    My 2 c.

  17. ruidias61176 says:

    o título deveria ser “Google Photos identificou duas pessoas como animais”. Assim, ninguém ficava ofendido…

  18. ruidias61176 says:

    E se o google identificasse uns “brancos” ou “claros” como porcos… Será que o algoritos eram racistas???
    http://www.vamoslaportugal.com/porco-nasceu-com-rosto-humano-e-orgao-sexual-na-cabeca/2015/02/09

  19. Nuno Santos says:

    Se fosse um ‘branco’ a ser identificado como um qualquer animal ‘branco’ já seria ok e nada de grave, mas mais uma vez quando toca a um preto (sim eu aprendi as cores na escola e entre os meus amigos pretos, o preto é preto, e o branco é branco) já é um crime…

    Querem acabar com os racismos? Parem de ser diferentes entre vocês (pretos/negros/castanhos…)

    Este assunto já cheira mal… já parece a historia de que um branco leva um estalo está tudo ok, se um branco dá um estalo num preto é porque estava a ser racista… wtf.

    • Vítor M. says:

      Exactamente, mas antes de mais é preciso mudar as mentalidades e lá está, do outro lado do atlântico as mentalidades ainda estão turvadas, como temos visto. Depois de limpas é que tudo ficará mais transversal, mais humanizado.

      Como por lá temos visto, os exemplos vão ao inverso do teu exemplo, por isso é complicado por lá.

  20. Kadu says:

    Mesmo… como o Nuno Santos disse e bem, este assunto do racismo já aborrece!! Antes demais eu não sou racista nem xenófobo (xenófobo talvez um pouco :p e não sejam hipócritas porque vocês também o são) e os meus amigos pretos chamo-lhes pretos assim como eles branco a mim… se conhecesse alguém azul chamar-lhe-ia de azul, o gordo de gordo, o magro de lingrinhas e o chato de chato, ponto final. É um adjectivo não uma ofensa… a mim, na altura da escola chamavam-me de 4 olhos (adivinhem só porque?) e eu nunca me ofendi nem fiz birras por isso. Um dia para identificar um amigo a alguém disse “ali o preto” e uma Sra. muito ofendida chamou-me logo á atenção que não me devia dirigir a ele daquela maneira mas sim caracteriza-lo como “sr. de côr” loool o que me levanta a dúvida então se o preto é de côr, eu sendo branco sou transparente??????? fdx o racismo não existe. existe é pessoas estúpidas e outros tantos ignorantes que lhes dão ouvidos que por sua vez conseguem influencias mais uns quantos… ah e o cebeça de cenoura (porque é ruivo) tambem nunca se chateou com isso… aceitem-se como são e deixem-se de merdas e desculpas para tentarem fazer-se de vitimas de um mundo cruel.

  21. Jorge Guimarães says:

    Alguém ja colocou uma foto sua na internet e pediu para procurar imagens parecidas?
    Façam isso e depois comentem. Já experimentei e achei engraçado ver imagens que eu acho que não tem nada a haver.

    • JG says:

      “não tem nada a haver” NÃO! Erro recorrente!
      Aprendam que não duro sempre: “não tem nada a ver”. Não se deve nada a ninguém (haver), mas sim que não tem nada a VER com outra coisa qualquer, que não é parecido ou semelhante!
      Depois deixo o meu NIB para não sofrerem mais vergonhas públicas (e muitas vezes privadas) quando escrevem… 😉

  22. Adamastor says:

    “holy fuck”??? vindo do CA da G+ ??

  23. Alves says:

    Vítor,
    claro que não podia dar “Bunnies”, pois o “algoritmo” até é bastante funcional.

  24. MrHide says:

    Pois pois, estão todos muito certos, mas não deixa de ser discriminação… para os Gorillas que perderam a tag.

  25. Sérgio J says:

    Tal como já vi homens brancos que me faziam lembrar animais, não me choca dizer que nesta foto em particular se confunde com um gorila. Sinceramente não conseguem ver semelhanças? Choca assim tanto que um algoritmo que só vê padrões se tenha enganado? Eu acredito que todos percebem o erro, mas custa-lhes admitir, porque julgam que estarão a ser racistas. Eu digo, não, não estão a ser racistas, só estão a ser hipócritas em não admitir.

    A maior parte dos sistemas tem falhas, até uma maquina fabril que produz milhões de pregos.

    • Sérgio J says:

      Obviamente é uma situação confrangedora e a Google deve penar-se por isso. Porque acima de tudo afectou duas pessoas inocentes e se calhar ficarão marcadas para sempre.

      Mas continuo a dizer que é hipócrita quem não entende que um algoritmo possa ter interpretado mal.

  26. GEOVANI says:

    Na raça humana, existem pessoas negras,brancas,mestiças, asiáticas etc, mas não existem macacos, gorilas, orangotangos, e nem chipanzés mas como existe genética, morfologias e outras coisas mais, existem no mundo pessoas que são muito racistas que até têm coragem de matar e de insultar oque é diferente dele, mas qual é essa diferença ( cor da pele, olhos, cabelo, nariz), Eu vou vos dar mais exemplos para acabarem com esse racismo ridículo, o macaco não fala, não sonha, não chora, não sabe jogar futebol, não sabe ler e nem escrever , não sabe engravidar uma mulher, não sabe nadar, não sabe ofender, não sabe bater punheta, não sabe comer com garfo e faca, não sabe estudar, não sabe pilotar um avião, não sabe fazer um assalto a mão armada, não sabe cantar, não sabe vestir e não sabe refletir e nem cozinhar sabe, MAS todos os seres humanos raciocinam e aprendem, e todos têm ( boca, nariz,orelha, cabelo, se for homem tem pênis , se for mulher tem vagina, todos têm mãos, pernas, cinco dedos e ninguém é perfeito porque todos eles erram e já erraram e continuam a errar, por isso é que muitos deles quer seja negro ou branco ainda são racistas, parem com essa coisa estupida de racismo por favor. EU VOS DIGO QUE CONFUNDIR UM SER HUMANO COM UM GORILA, É RACISMO DE 1º GRAU , e é uma grande ofença para raça negra, PASSEM A RESPEITAR TODAS AS RAÇAS HUMANAS.

    • Zaark says:

      Até parece que foi de propósito.
      Tenham calma! O sistema reconheceu padrões e errou na sua avaliação, a Google reconhecu isso e tratou de afinar o sistema de self-learning que está por detrás do Google Photos… Ninguém quis tratar mal ninguém! :/
      Na época em que esta tecnologia estava a começar e era capaz de identificar um cão a brincar com uma bola como sendo um leão a caçar uma gazela, ninguém dizia nada.
      O erro de agora teve a mesma base dos erros de antigamente – padrões mal identificados – com o azar de identificar duas pessoas como animais, e para piorar a coisa na América – e pelos vistos não só – foram duas pessoas de raça negróide (este é o nome da raça, da mesma forma que os brancos são “caucasianos”).

    • piri_vm says:

      Estás enganado, porque um macaco/gorila consegue fazer tudo o que tu disseste, no entanto há humanos que não.

      • GEOVANI says:

        Comparar um ser humano com um Macaco, é como se fosse comparar um carrinho de bebe com um avião, por isso deixa de tretas e reconhecem o erro da google

        • Zaark says:

          Excepto que o carrinho de bebés não descende directamente do avião.

          O erro da Google… sim, a Google tem lá um centro de operações que cataloga manualmente cada fotografia que é carregada no Photos, segundo parece.

          Quando o pessoal quiser dedicar uns minutos a ler alguma coisa acerca de self-learning machines, talvez entendam o que realmente se passou.

  27. David Guerreiro says:

    Pior era se apanhasse 1 foto de 2 homens e tagasse Gays. Isso aí seria homofobia propositada pelo programador. Mas neste caso foi um erro do algortimo, que necessita afinamentos. A expressão facial da mulher fazia muito lembrar um gorila, daí que o erro deva advir daí. Se o mesmo programa me tagasse como um animal qualquer eu até achava piada, só que esse pessoal vê racismo em tudo e toca de ficar indignado.

  28. sakura says:

    “”By building software that automatically learns from data, we design applications that have new functions and flexibility.””

    as “”Machine Learning”” não são programadas “elas” aprendem com os erros, acretos…..

    não há “postura xenófoba”, pq ng a programou.
    http://research.microsoft.com/en-us/research-areas/machine-learning-ai.aspx

  29. Slayer says:

    se tivesse visto a foto em outro lado nunca ia pensar que se tratava de 2 pessoas ^^

  30. Pedro Miranda says:

    perguntem-se porque é que é proíbido usar algoritmos neuronais neat em seguradoras depois falamos 😉

  31. Tiburcio Preto says:

    Cheeéeeeeée.

  32. Sapito says:

    Certeiro e eficaz.

Deixe um comentário

O seu endereço de email não será publicado.

You may use these HTML tags and attributes: <a href="" title="" rel=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

*

Aviso: Todo e qualquer texto publicado na internet através deste sistema não reflete, necessariamente, a opinião deste site ou do(s) seu(s) autor(es). Os comentários publicados através deste sistema são de exclusiva e integral responsabilidade e autoria dos leitores que dele fizerem uso. A administração deste site reserva-se, desde já, no direito de excluir comentários e textos que julgar ofensivos, difamatórios, caluniosos, preconceituosos ou de alguma forma prejudiciais a terceiros. Textos de caráter promocional ou inseridos no sistema sem a devida identificação do seu autor (nome completo e endereço válido de email) também poderão ser excluídos.