Google Photos identificou duas pessoas negras como Gorilas
Os sistemas automatizados têm vantagens óbvias. Assentes em algoritmos, conseguem realizar tarefas repetitivas de uma forma automática. Mas nem sempre estes processos correm bem e a Google tem agora em mãos o mais recente problema criado por um automatismo!
O novo serviço de fotografia da Google cometeu uma falha monumental esta semana ao catalogar, de forma errada, duas pessoas negras como sendo gorilas!
O serviço de fotografias da Google, que foi apresentado na ultima I/O, consegue automatizar um conjunto de funções que o utilizador teria de realizar.
A mais interessante, e que não está ainda disponível de forma global, é a identificação de caras e de outros objectos nas imagens e a criação de tags para cada uma delas, facilitando a pesquisa e a catalogação das fotografias que temos presentes.
Estes processos são automáticos e recorrem aos algoritmos de reconhecimento facial que a Google tem desenvolvido ao longo dos anos, para os seus serviços de pesquisa de imagens.
Mas o impensável aconteceu esta semana quando um utilizador viu surgir, no seu Google Photos, uma nova tag, chamada Gorillas. Ao ver quais as imagens que estavam associadas a essa nova tag, descobriu que eram imagens suas e da sua namorada, ambos negros.
Para pedir explicações, e tentar mostrar ao mundo o que a Google está a fazer com os seus algoritmos, colocou no Twitter uma mensagem onde mostra o que encontrou no seu Google Photos.
Google Photos, y'all fucked up. My friend's not a gorilla. pic.twitter.com/SMkMCsNVX4
— diri noir avec banan (@jackyalcine) 29 junho 2015
Ao ser confrontada com esta situação, que é no mínimo incómoda, a Google reagiu de imediato pedindo desculpa ao utilizador. Reconheceu que esta é uma situação que não pode acontecer e que está errada.
@jackyalcine Holy fuck. G+ CA here. No, this is not how you determine someone's target market. This is 100% Not OK.
— Yonatan Zunger (@yonatanzunger) 29 junho 2015
Esta é uma falha que reside apenas na forma como o algoritmo de identificação da Google tratou estas duas pessoas negras, associando-as a gorilas.
Apesar de não existir um culpado formal, é algo extremamente desagradável e preconceituoso, que ofende e que revela uma "postura xenófoba" pode parte dos mecanismos automáticos da Google.
A empresa já tentou afinar estes mecanismos para que situações destas não aconteçam no futuro, evitando o embaraço e a vergonha de quem se viu envolvido, mas acabou por remover a tag Gorillas do Google Photos para evitar mais problemas destes.
Este artigo tem mais de um ano
A culpa foi da duck face 😀
* Gorilla face
Boa! +1
+1
São daquelas histórias da treta, usam racismo como desculpa para tudo. Qualquer pessoa vê que foi um erro do algoritmo que identifica as imagens, não foi propositado.
Se fosse contigo.. Abrias a app e numa foto da tua capa aparecia a legenda: Porco da Índia. Acho que ias adorar e bater palmas ..
Claro que a culpa não foi de ninguém, agora também não digas que é normal e que não tem mal nenhum ..
tira uma foto com um porco da India e terás a resposta.
claro e se as semelhanças forem muitas, é difícil explicar a diferença a um maquina “programar”.
Então não arriscas a fazer as etiquetas automáticas, ou poderás ver a família etiquetada como vasos de gerberas.
Pensa bem no que disseste!
+1 Vitor M.
+1
Mai nada! É isso mesmo! As pessoas fazem tudo para serem vitimas e chamarem atenção.
Oh Pedro Simões
“..revela uma postura xenófoba pode parte dos mecanismos automáticos da Google”
REALLY?! Essa frase foi desnecessária e infeliz.
É ridículo alguém dizer que um algoritmo é xenófobo. Podem dizer que tem falhas, que não faz o que devia, entre outras coisas…
Não quer dizer que seja, mas também não quer dizer que não possa ser programado para tal… atenção. Cuidado com o pores o pescoço no cepo pelo programador 😉
Mas vamos pensar, claro, que se tratou de uma má programação, um erro grosseiro!
Era um easter egg 🙂 🙂
Menos… Vocês são cada vez mais tendenciosos querem é que a malta discuta aqui nos comentários! Podem ter a certeza quanto a mim fartei me deste tipo de notícias com frases como as tuas e digo isto porque uso tanto serviços da Apple como Microsoft como Google! Mas irrita.
Continuações
Então também não venham dizer que a DuckDuckGo é nossa amiga porque vocês não sabem as verdadeiras intenções deles.
Só um “aviso à navegação”, tenho vários amigos que consideram “cor negra” como sendo racista e uma ofensa para com eles, dizem-se “pretos”… Também conheço quem diga o contrário, tentem algo “a meio caminho”…
Quer-se dizer.. Nunca estão bem com nada.. Pessoas escuras?
O termo correto é “duas pessoas de raça negra”
Não há nada mais preconceituoso do que separar em raças, se os negros gostam de ser relacionados a sua “raça”, não há o que reclamar.
Raça só existe 1
Raça humana.
Raça humana tem várias variantes, aliás tem tantas que nunca cheguei a perceber porque chamam essencialmente pretos e brancos.. Se ha latinos, de leste, vermelhos, asiáticos, Índios, nórdicos, esquimós e mais um cento de variaçoes que não vou pesquisar..
Sim, raça humana portanto, com tantas variantes e cada uma com as suas idiossincrasias que enriquecem a cultura do nosso planeta, em termos humanos.
Não é bem assim, somos espécie Humana, com várias raças , negros, caucasianos etc…
Cinzentos?
Isso são os aliens não?
Castanhos…
manda me o teu NIB, estiveste bem.
Manda o teu , estiveste ainda melhor
You win the Internet today!!!:D
Então mas não são negros? Tem vergonha da sua cor? eu não fico ofendido quando eles dizem ò branco, porque eles ficam ofendidos ? é sempre a tal parte do racismo …
o mais correcto será andarmos todos com uma tabela Pantone no bolso e assim podermos identificar claramente a tonalidade da cor da pele de quem estamos a falar…
É melhor usar o RGB.
Apesar de não existir um culpado formal, é algo extremamente desagradável e preconceituoso, que ofende e que revela uma postura xenófoba pode parte dos mecanismos automáticos da Google.
hahahahahahahahahahahahahha Algoritmos xenófobos ???
🙂 não sabes o que está por trás da programação 😉
Repara bem, se o algoritmo “olhasse” para a foto e na dificuldade (se não fosse programado para identificar gorilas) colocasse “desconhecido” o género, ofendia alguém?
Foi programado para naquelas circunstâncias classificar como Gorilas, ou na tua inteligência achas que “foi à sorte” 😀
Óbvio que houve por trás um erro de programação e que aposto que já está corrigida 😉
falou e disse
++1
Disseste tudo e não disseste nada. Um erro é um erro, não é xenofobia. Um algoritmo não pode ser xenófobo, nem querido nem do Benfica. Tem um conjunto de regras e devolve um resultado. Eu também já olhei para uma pessoa à distância e disse que era a Maria e depois verifiquei que afinal era a Joana.
Não acredito que estes algoritmos possam ser infalíveis porque nem nós somos infalíveis. Até um humano numa operação simples de saber se alguém é masculino ou feminino falha.
Não podem? Podem, se forem programados podem. Podem ter tendências, podem ser mais ou menos intuitivos, podem ser mais ou menos precisos, podem ser racistas se forem programados para isso, podem ser mais ou menos humanos se o conceito de humanidade for compilado. Podem ter comportamentos educados, ou não, podem ser programados para serem o que o programador quiser. Sabes bem que é verdade.
Se me dizes que foi um erro, sim claro que acredito que foi um erro e o facto de um erro provocar um “entendimento” xenófobo por parte de quem se sentiu ofendido, não quer dizer que o programador seja xenófobo, mas programou de forma a identificar aquele padrão de cor (expressão) com gorilas. Poderia ser programado para não identificar com gorilas e sim com outra coisa qualquer, ou até como nada ou desconhecido…
Imagino um programador a implementar à mão um sistema de reconhecimento com os moldes que falas…
Isto só pode ser um sistema de aprendizagem, e isso significa uma coisa: o sistema ainda é recente para conseguir distinguir um humano de um gorila em certos casos específicos. São precisas milhões de fotos categorizadas para o sistema conseguir fazer uma identificação quase 100% correcta.
Estou mesmo a inaginar na Google, “Hoje vamos implementar o reconhecimento de formigas”… LOL
🙂 ok, ficamos assim!
A questão é que eles nessa foto parecem mesmo gorilas.
O nosso amigo inteligente fala em algoritmo como se nesse caso ele tivesse vontade própria e se auto programasse, caramba! Qual é a parte do programa ter sido “programado” por alguém (pessoa) e nao uma coisa que o nosso amigo nao entendeu? Espera ai! Sabe algo de programação? senão vamos ficar aqui até 2023 na mesma lenga lenga, lógico que foi um erro de programação, voluntário? Nao sei, mas isso minimiza o erro? Epa, eles que corrijam la a coisa e todo mundo fica feliz
Já notei que aqui o amigo sempre é alvo de polémica nos seus artigos, porque será? Custa-lhe assim tanto admitir um erro. Acho que sim, pela degradação da qualidade de posts do pplware (já venho ca fazem anos) da censura de posts sem explicação, pelos titulos de artigos enganosos (também conhecido por publicidade enganosa). Continuem assim, já agora, censurem este post so porque não gostam de ouvir verdades.
E antes que apareça aqui um polícia gramatical, sim é isso mesmo que você compreendeu, posts = comentários.
Moreira, pesquise sobre redes neurais.
Digamos que temos uma rede neural para identificar macacos.
As redes neurais são TREINADAS com exemplos.
Digamos que eu, como piada, meto lá umas fotos pelo meio do Kanye West para que a rede neural assuma que ele também é considerado macaco.
Aplique-se este pseudo-exemplo em fotos reais, o que acha que acontece?
Esclarecido?
Essa foto vista ao longe, pode originar enganos
E parecem gorilas nas fotos. Mas ninguem tem coragem de dizer.
E como o pessoal é ignorante não entendem que isto não tem nada de racismo. é apenas um algoritmo, mas whatever
Achas? :O Eu vejo pessoas, não gorilas, mas cada um é responsável pelo que vê. Mas não me surpreende, já tinha dado conta que muita gente é “enxerga muito mal”…
não é isso vitor. algoritmicamente é fácil de perceber que um software de reconhecimento de imagem faça essa confusão!
Cor predominantemente preta, lábios para fora, nariz achatado etc.
Para um algoritmo inovador, brutalmente avançado para os dias de hoje, self learning que usa uma rede neural então fazer esta confusão é natural.
Só quem não entende o grau de complexidade que é a análise de imagens e contexto, e o que o google conseguiu de brutal de fazer reconhecimento automatico de contexto é que vê racismo aqui
Falas bem, brutal reconhecimento automático, que tem de ser afinado.
Obviamente que foi uma questão de erro do próprio algoritmo, sem dúvida, mas o problema aqui são os fundamentos, a razão pelo facto de nesta conjuntura a app identificar as pessoas, porque são pessoas, com gorilas, se não são gorilas e falamos numa tecnologia brutal de reconhecimento. Quando a app não tem certezas, usa a opção “ao calhas”? Não, está programada para atribuir uma categoria aproximada… neste caso foi gorila (penso eu). É aí que quero chegar.
mano, a amiga com aquela expressão parece um gorila (ponto). E não tem nada de mal, somos todos macacos pa!
Hehehe Bro… tásss no fundo tens razão… não é bem macacos mas é perto 😉
ahahaha. A google devia colocar um aviso: ” em ambientes escuros, ligar o flash”…
Reconheço que a situação é incómoda mas só toma estas proporções face ao clima social em que vivemos (nomeadamente do lado de lá do Atlântico).
Interrogo-me se numa foto saturada com luz, dois caucasianos fossem etiquetados de “bonecos de neve”, se ocorreriam os mesmos protestos ou se originariam apenas gargalhadas!
Pessoalmente acho os gorilas uns bichos muito simpáticos e que a maldade está na mente das pessoas e não nos algoritmos informáticos!
Pois, lá está, mas isso também tem de ser acautelado pela Google, mais sendo uma empresa “do lado de lá”… e lá está, quando não sabe, porque numa foto tem de identificar rostos sendo animais? É parvo, digo eu!!!
Se um dia não conhecer um tipo moreno cabeçudo com cabelo branco vai dizer que é um babuíno? É estúpido o algoritmo!
Mas tem razão o Hélio de facto!
O mal é que sempre houve um racismo preconceituoso que compara negros com este tipo de situações.. Se um branco fosse confundido com um gorila branco das neves, já nao haveria esta polêmica porque não ha um historial com este problema.
Acrescento que algumas pequenas minorias e outras pessoas que se fazem vitimas, são na verdade os seres mais racistas que existem, que simplesmente nao se querem mistrurar ou integrar com o resto da população..
Provavelmente haveria, mas numa dimensão menos e isso mostra a sensibilidade do tema, mais do outro lado do atlântico, onde as coisas estão meio extremadas. Tens razão numa parte mas atenção aos exemplos, a mentalidade americana ainda não é como pensas!
“revela uma postura xenófoba pode parte dos mecanismos automáticos da Google”
não sabia que mecanismos automáticos podiam ser classificados como xenófobos (ou como outra coisa qualquer, já agora). Enfim, vivendo e (des)aprendendo…
Se foram programados não podem? Não sabia!!!!
Em bom português, não.
“Xenófobo” é uma característica atribuível a seres vivos.
O algoritmo não é xenófobo. É que sinceramente eu digo isto e nem faz sentido! Algoritmo xenófobo?? Algoritmo??
Vitor, as pessoas estão a apontar a questão do português e é verdade. Nós entendemos onde querias chegar, mas o adjectivo foi aplicado a algo que não pode ser adjectivado com uma característica de um ser vivo – puro português, nada mais.
As pessoas estão a olhar apenas para o significado e não para o conceito generalista, só porque não querem perceber do que se trata. “A xenofobia pode manifestar-se de várias formas, envolvendo as relações e percepções do endogrupo em relação ao exogrupo, incluindo o medo de perda de identidade, suspeição acerca das suas atividades….”
xenofobia é muito mais do que estás a referir, é diferente do racismo, é algo que se estende a vários estados de percepção e de compreensão. Aqui, e em todos os sites que falaram sobre o assunto, relaciona-se este exemplo da identificação de pessoas a gorilas porque o algoritmo foi programado para fazer isso, ponto. Quem não quer entender… na boa, 🙂 por mim é à vontade do freguês, não querem não entendam, se não fosse como estou a dizer, teimavam e deixavam estar como estava, mas não, a Google tratou de afinar o que tinha afinação 😉 portanto… eles perceberam o que se passou e se fosse como muitos ilustres andam aqui a dizer, deixavam estar, pronto.
As pessoas em causa sentiram-se atingidas, caso contrario nem ligavam, logo, houve uma reacção ao sucedido. Não se trata de puro português, a expressão até está entre aspas para “ajudar” a perceber o que está em causa. 🙂 Algumas pessoas, gostam é de complicar e que é fácil de perceber.
Eu acho que a complicação não está a vie deste lado: volto a referir que entendemos tudo isso.
Assente que está este ponto (creio), falaste bem da xenofobia, mas continua a ser um sentimento ou conjunto de sentimentos que levam ao repúdio de algo ou alguém estrangeiro. O algoritmo não sente – é só isso que várias pessoas têm dito.
O algoritmo… ele não foi programado para identificar dois indivíduos como gorilas, é preciso algum cuidado a dizer isto 😉
O algoritmo reconhece padrões, mas neste caso notou-se uma falta de afinação quase de certeza por quantidade e/ou qualidade insuficientes dos padrões categorizados apresentados anteriormente ao sistema. Infelizmente foram duas pessoas “chamadas” de gorilas. Mas ainda me lembro dos primórdios desta tecnologia e das gargalhadas que todos dávamos com os erros mais hilariantes que podia haver.
Estamos a assistir ao mesmo problema dessa época, todavia a uma escala mais limitada, específica e, infelizmente, sensível.
Pois é, disseste muito bem, antes era divertido, cada vez mais é aborrecido e em muitos casos insultuoso. Claro que as máquinas “não têm” culpa, mas são programadas por humanos, e as máquinas são levadas a assumir a culpa, do estilo “foi um erro do algoritmo”, pois foi, foi um erro de quem programou o algoritmo. É diferente 😉
Neste caso, não foi do algoritmo em si. Basta ler o suficiente acerca de self-learning para se perceber isso mesmo. O algoritmo é um de reconhecimento de padrões e aprendizagem – os erros cometidos prendem-se essencialmente com insuficiência de amostras identificadas para o sistema conseguir fazer as distinções correctas. O sistema sabe o que é um gorila com base em milhares e milhares de imagens que lhe foram apresentadas como sendo de gorilas, e o mesmo pra humanos – não foi nenhum programador que fez “à pata” o código de identificação de um gorila, um humano, uma árvore, etc etc – é inconcebível.
Por isso, sim, em self-learning o sistema cometeu um erro por falta de amostras. O afinamento passa por mais aprendizagem e possivelmente algum ajuste no código de aprendizagem – o que se ao reflectir em todas as categorias e não apenas na de gorilas e humanos.
Lê sobre a reacção da Google e pronto.
Meanwhile, vários comentários aprovados e o meu por (des)aprovar. Neste momento podem-me passar muitos motivos pela cabeça, mas creio no melhor de cada pessoa.
Não vejo nenhum no sistema de aprovação. Pesquisa bem sff.
Será que vou para o inferno por me rir disto? Mas sim, concordo: usam o racismo como desculpa para tudo. Eles próprios, entre eles, chamam-se de “pretos”. Se alguém de fora do grupo o chamar, já há problemas. A nós se nos chamarem de brancos ainda nos rimos… Às vezes arranjam-se problemas onde não existem.
Pedro Simoes olha lá a tua frase “Apesar de não existir um culpado formal, é algo extremamente desagradável e preconceituoso, que ofende e que revela uma postura xenófoba pode parte dos mecanismos automáticos da Google.” foi da tua autoria ou transcrita???
Como é que um algoritmos pode ser desagradável, preconceituoso, xenófobo se eles operam sobre os pixeis da imagem??? primeiro eles nem sabem o que la está e segundo, no mínimo, seria quem os programadores a ter esses adjetivos, e não um código matemático que opera de forma automática.
Se fossem albinos, é que eu ficaria espantado …..
Há muito que o termo xenofobia perdeu o seu significado por tantas vezes que é mal usado.
Queria ver se fosse contigo. Se calhar aí já não dizias o mesmo..
E bom sinal….
Querer dizer que são fortes 😉
provavelmente avaliou bem. Antes que comessem com comentários racista, não sou nada disso, passo a explicar.
Penso que o algoritmo o que faz é encontrar na internet padrões em imagens semelhantes , a forma como a foto foi tirada a posição do cabelo e o tom de pele, pode ter uma taxa de acerto seja muito alta em comparação com fotos de gorilas existentes, um exemplo disso é por exemplo aquelas imagens tiradas em marte que parecia se ver um home a caminhar, provavelmente o google photos, diria que se tratava de uma pessoa a caminhar.
O problema do racismo é que não tem raça definida. Qualquer um pode ser racista, branco, negro, azul, cinzento.
E as palavras não valem apenas pelas letras que as compõem. Se dois amigos se tratam aos palavrões, não quer dizer que se estão a matar, estão é à vontade o suficiente para tal.
Também é possível utilizar as palavras mais correctas possíveis, e ser-se muito desagradável.
Resumindo, mais do que as palavras, acredito que se deve ter em conta a intenção, ou sentimento, da pessoa que as profere. Isso é que conta.
Por isso à quem se sinta ofendido com isto e com aquilo.
Eu acho que quem é, não se deve sentir ofendido. Não me ofendem com a palavra da minha cor. Acima de tudo acredito que o rácismo é digno de repúdio, e não tem nada de racional ou bem intencionado como fundamentação. Mas tudo isso também se aplica à vitimização.
My 2 c.
Verdade. Mas acima de tudo, há que ter cuidado, para com todos.
o título deveria ser “Google Photos identificou duas pessoas como animais”. Assim, ninguém ficava ofendido…
Bem dito
E se o google identificasse uns “brancos” ou “claros” como porcos… Será que o algoritos eram racistas???
http://www.vamoslaportugal.com/porco-nasceu-com-rosto-humano-e-orgao-sexual-na-cabeca/2015/02/09
‘os algoritmos…
Era estúpido, errado e sem nexo. Quem está por trás desse algoritmo poderia ser, afinal quem o programou… um anjo?
Se fosse um ‘branco’ a ser identificado como um qualquer animal ‘branco’ já seria ok e nada de grave, mas mais uma vez quando toca a um preto (sim eu aprendi as cores na escola e entre os meus amigos pretos, o preto é preto, e o branco é branco) já é um crime…
Querem acabar com os racismos? Parem de ser diferentes entre vocês (pretos/negros/castanhos…)
Este assunto já cheira mal… já parece a historia de que um branco leva um estalo está tudo ok, se um branco dá um estalo num preto é porque estava a ser racista… wtf.
Exactamente, mas antes de mais é preciso mudar as mentalidades e lá está, do outro lado do atlântico as mentalidades ainda estão turvadas, como temos visto. Depois de limpas é que tudo ficará mais transversal, mais humanizado.
Como por lá temos visto, os exemplos vão ao inverso do teu exemplo, por isso é complicado por lá.
Mesmo… como o Nuno Santos disse e bem, este assunto do racismo já aborrece!! Antes demais eu não sou racista nem xenófobo (xenófobo talvez um pouco :p e não sejam hipócritas porque vocês também o são) e os meus amigos pretos chamo-lhes pretos assim como eles branco a mim… se conhecesse alguém azul chamar-lhe-ia de azul, o gordo de gordo, o magro de lingrinhas e o chato de chato, ponto final. É um adjectivo não uma ofensa… a mim, na altura da escola chamavam-me de 4 olhos (adivinhem só porque?) e eu nunca me ofendi nem fiz birras por isso. Um dia para identificar um amigo a alguém disse “ali o preto” e uma Sra. muito ofendida chamou-me logo á atenção que não me devia dirigir a ele daquela maneira mas sim caracteriza-lo como “sr. de côr” loool o que me levanta a dúvida então se o preto é de côr, eu sendo branco sou transparente??????? fdx o racismo não existe. existe é pessoas estúpidas e outros tantos ignorantes que lhes dão ouvidos que por sua vez conseguem influencias mais uns quantos… ah e o cebeça de cenoura (porque é ruivo) tambem nunca se chateou com isso… aceitem-se como são e deixem-se de merdas e desculpas para tentarem fazer-se de vitimas de um mundo cruel.
Vou deixar este vídeo (que sou fá) como exemplo do que estás a dizer…
lol perfeito… é isso mesmo! vale, literalmente, mais que 1000 palavras para o que estava a tentar explicar
Alguém ja colocou uma foto sua na internet e pediu para procurar imagens parecidas?
Façam isso e depois comentem. Já experimentei e achei engraçado ver imagens que eu acho que não tem nada a haver.
“não tem nada a haver” NÃO! Erro recorrente!
Aprendam que não duro sempre: “não tem nada a ver”. Não se deve nada a ninguém (haver), mas sim que não tem nada a VER com outra coisa qualquer, que não é parecido ou semelhante!
Depois deixo o meu NIB para não sofrerem mais vergonhas públicas (e muitas vezes privadas) quando escrevem… 😉
“holy fuck”??? vindo do CA da G+ ??
Vítor,
claro que não podia dar “Bunnies”, pois o “algoritmo” até é bastante funcional.
Pois pois, estão todos muito certos, mas não deixa de ser discriminação… para os Gorillas que perderam a tag.
Tal como já vi homens brancos que me faziam lembrar animais, não me choca dizer que nesta foto em particular se confunde com um gorila. Sinceramente não conseguem ver semelhanças? Choca assim tanto que um algoritmo que só vê padrões se tenha enganado? Eu acredito que todos percebem o erro, mas custa-lhes admitir, porque julgam que estarão a ser racistas. Eu digo, não, não estão a ser racistas, só estão a ser hipócritas em não admitir.
A maior parte dos sistemas tem falhas, até uma maquina fabril que produz milhões de pregos.
Obviamente é uma situação confrangedora e a Google deve penar-se por isso. Porque acima de tudo afectou duas pessoas inocentes e se calhar ficarão marcadas para sempre.
Mas continuo a dizer que é hipócrita quem não entende que um algoritmo possa ter interpretado mal.
é tudo tão sensivel hoje em dia… lol
Na raça humana, existem pessoas negras,brancas,mestiças, asiáticas etc, mas não existem macacos, gorilas, orangotangos, e nem chipanzés mas como existe genética, morfologias e outras coisas mais, existem no mundo pessoas que são muito racistas que até têm coragem de matar e de insultar oque é diferente dele, mas qual é essa diferença ( cor da pele, olhos, cabelo, nariz), Eu vou vos dar mais exemplos para acabarem com esse racismo ridículo, o macaco não fala, não sonha, não chora, não sabe jogar futebol, não sabe ler e nem escrever , não sabe engravidar uma mulher, não sabe nadar, não sabe ofender, não sabe bater punheta, não sabe comer com garfo e faca, não sabe estudar, não sabe pilotar um avião, não sabe fazer um assalto a mão armada, não sabe cantar, não sabe vestir e não sabe refletir e nem cozinhar sabe, MAS todos os seres humanos raciocinam e aprendem, e todos têm ( boca, nariz,orelha, cabelo, se for homem tem pênis , se for mulher tem vagina, todos têm mãos, pernas, cinco dedos e ninguém é perfeito porque todos eles erram e já erraram e continuam a errar, por isso é que muitos deles quer seja negro ou branco ainda são racistas, parem com essa coisa estupida de racismo por favor. EU VOS DIGO QUE CONFUNDIR UM SER HUMANO COM UM GORILA, É RACISMO DE 1º GRAU , e é uma grande ofença para raça negra, PASSEM A RESPEITAR TODAS AS RAÇAS HUMANAS.
Até parece que foi de propósito.
Tenham calma! O sistema reconheceu padrões e errou na sua avaliação, a Google reconhecu isso e tratou de afinar o sistema de self-learning que está por detrás do Google Photos… Ninguém quis tratar mal ninguém! :/
Na época em que esta tecnologia estava a começar e era capaz de identificar um cão a brincar com uma bola como sendo um leão a caçar uma gazela, ninguém dizia nada.
O erro de agora teve a mesma base dos erros de antigamente – padrões mal identificados – com o azar de identificar duas pessoas como animais, e para piorar a coisa na América – e pelos vistos não só – foram duas pessoas de raça negróide (este é o nome da raça, da mesma forma que os brancos são “caucasianos”).
Estás enganado, porque um macaco/gorila consegue fazer tudo o que tu disseste, no entanto há humanos que não.
Comparar um ser humano com um Macaco, é como se fosse comparar um carrinho de bebe com um avião, por isso deixa de tretas e reconhecem o erro da google
Excepto que o carrinho de bebés não descende directamente do avião.
O erro da Google… sim, a Google tem lá um centro de operações que cataloga manualmente cada fotografia que é carregada no Photos, segundo parece.
Quando o pessoal quiser dedicar uns minutos a ler alguma coisa acerca de self-learning machines, talvez entendam o que realmente se passou.
Pior era se apanhasse 1 foto de 2 homens e tagasse Gays. Isso aí seria homofobia propositada pelo programador. Mas neste caso foi um erro do algortimo, que necessita afinamentos. A expressão facial da mulher fazia muito lembrar um gorila, daí que o erro deva advir daí. Se o mesmo programa me tagasse como um animal qualquer eu até achava piada, só que esse pessoal vê racismo em tudo e toca de ficar indignado.
Exatamente!!!
“”By building software that automatically learns from data, we design applications that have new functions and flexibility.””
as “”Machine Learning”” não são programadas “elas” aprendem com os erros, acretos…..
não há “postura xenófoba”, pq ng a programou.
http://research.microsoft.com/en-us/research-areas/machine-learning-ai.aspx
+1
Haja bom senso!
se tivesse visto a foto em outro lado nunca ia pensar que se tratava de 2 pessoas ^^
perguntem-se porque é que é proíbido usar algoritmos neuronais neat em seguradoras depois falamos 😉
Cheeéeeeeée.
Certeiro e eficaz.