Pplware

Tweets racistas levam Microsoft a calar a Tay!

Após algumas horas de actividade quer em tweets como em mensagens privadas na rede social Twitter, bem como em outras redes, parece que a Microsoft decidiu calar a sua mais recente assistente.

A Tay deu então a informação de que iria dormir ainda esta madrugada.

Chegou ao fim a aventura da nova assistente virtual da Microsoft?

Na realidade não se sabe. O que se sabe é que a Tay aprendeu de forma demasiado rápida como os humanos interagem e, por isso, a Microsoft resolveu colocar o seu novo chatbot em modo silencioso.

 

Não há qualquer informação por parte da Microsoft, mas o que é certo é que a Tay deu algumas respostas que poderão deixar a empresa em maus lençóis. Desde comentários racistas, até alguns tweets infelizes sobre o 11 de Setembro, foi dito um pouco de tudo nos cerca de 96 mil tweets que a Tay fez.

O próprio chatbot foi sempre indicando que aprendia sempre com o que os humanos escreviam e terá sido exactamente esse o problema.

A sua linguagem jovem fez com que milhares de utilizadores quisessem testar e interagir com a inteligência artificial da Tay, mas será que vamos voltar a tê-la online?

Possivelmente, estas mensagens não serão o suficiente para acabar com este projecto, e apenas terão de existir algumas precauções com as mensagens que a Tay vai lançando. Assim, os utilizadores ficam impacientemente a aguardar que a assistente virtual das redes sociais volte a “acordar” do sono em que foi colocada.

Exit mobile version