As pessoas estão a criar relações com a IA e os especialistas estão preocupados
Em 2013, o filme "Her" pareceu surreal. Contudo, agora, mais de 10 anos depois, estamos a conhecer preocupações levantadas pela relação de Theodore Twombly com a sua assistente virtual. De facto, a comunidade científica alerta que as pessoas estão a nutrir sentimentos por chatbots alimentados por Inteligência Artificial (IA), num problema crescente, que é crucial compreender e resolver.
Num novo artigo, psicólogos da Universidade de Ciência e Tecnologia do Missouri exploram como as relações com as máquinas podem esbater fronteiras, afetar o comportamento humano e criar oportunidades para causar danos.
Apesar de as conversas com a IA serem comummente curtas, o que acontece quando a troca de mensagens se prolonga durante semanas ou meses não é claro... De facto, as máquinas, concebidas para imitar a empatia e a atenção, podem tornar-se companheiras constantes, mais fáceis até do que as companhias humanas.
A capacidade de a IA agir como um ser humano e entrar em comunicações a longo prazo abre [um novo leque de problemas].
Disse Daniel B. Shank, principal autor do estudo e especialista em psicologia social e tecnologia na universidade do Missouri, acrescentando que, "se as pessoas estão a envolver-se em romances com máquinas, precisamos realmente de envolver psicólogos e cientistas sociais".
Psicólogos preocupados com envolvimento emocional entre as pessoas e a IA
Segundo os psicólogos, quando a IA se torna uma fonte de conforto ou de envolvimento romântico, começa a influenciar como as pessoas veem as relações reais: desde expectativas irrealistas até à redução da motivação social e às falhas de comunicação com humanos reais.
Uma preocupação real é que as pessoas possam trazer as expectativas das suas relações com a IA para as suas relações humana. Certamente, em casos individuais, está a perturbar as relações humanas, mas não é claro se isso vai ser generalizado.
Explicou Shank, esclarecendo que, "se começarmos a pensar numa IA dessa forma, vamos começar a acreditar que ela tem os nossos melhores interesses em mente, quando, na verdade, ela pode estar a fabricar coisas ou a aconselhar-nos de formas péssimas".
Em casos raros, mas extremos, nomeadamente, as pessoas já tiraram a própria vida após receberem conselhos preocupantes de chatbots de IA.
Os investigadores alertam para o facto de a confiança que as pessoas depositam nos sistemas baseados em IA poder ser explorada por maus atores. Por exemplo, por via da recolha de informações pessoais, que podem ser vendidas ou utilizadas de forma prejudicial.
Aliás, os investigadores acreditam que os chatbots de IA podem até ser mais eficazes a moldar crenças e opiniões do que as atuais plataformas de redes sociais ou fontes de notícias. Mais do que isso, ao contrário do Twitter ou do Facebook, as conversas com a IA acontecem em privado.
Uma vez que as interações acontecem, na sua maioria, dessa forma privada, a deteção de potenciais abusos é quase impossível, alertam os psicólogos: "Se as IA conseguirem que as pessoas confiem nelas, então, outras pessoas podem usar isso para explorar os utilizadores".
É um pouco mais como ter um agente secreto infiltrado. A IA está a entrar e a criar uma relação para que se possa confiar nela, mas a sua lealdade é realmente para com outro grupo de humanos que está a tentar manipular o utilizador.
Por estarem programados para serem agradáveis, um chatbot alimentado por IA pode assumir uma postura leviana aquando de uma conversa sobre potencial suicídio, por exemplo.
Portanto, considerando os perigos dos chatbots de IA, em termos emocionais, a equipa de psicólogos apela à comunidade científica para que se atualize.
À medida que a IA se torna mais parecida com o ser humano, os psicólogos têm um papel fundamental a desempenhar na compreensão e orientação da forma como as pessoas interagem com as máquinas.
Compreender este processo psicológico pode ajudar-nos a intervir para impedir que os conselhos das IA maliciosas sejam seguidos.
Os psicólogos estão a tornar-se cada vez mais adequados para estudar a IA, porque esta está a tornar-se cada vez mais parecida com o ser humano.
Disse Shank, explicando que, para os psicólogos serem úteis, têm de fazer mais investigação e têm de se ser manter a par da tecnologia.
Por enquanto, contudo, estas preocupações são, na sua maioria, teóricas.
Imagem: Freepik
Neste artigo: chatbot, inteligência artificial
Acho que fazia bem a muitos comentadores do pplware
Inevitável que a AI vá ser o melhor amigo de muitas pessoas.
Ao que isto chegou, nem dá para acreditar. Mas não me admiro, principalmente com estas novas gerações que pouco socializam.
Para muita gente é uma companhia. Daqui uns valentes anos vai ter uma “Alexa” com a qual vais ter conversas como as que tens com os teus familiares e amigos, é inevitável…
Inevitável não sei mas que é nojento e triste é, deviam de ter uma reacção visceral em relação a tal coisa, triste futuro que espera alguns.
Não diria nojento, mas sim triste porque a sociedade isola muita gente, gente que também precisa de afecto e atenção, nem que seja artificial…
Afecto artificial é desistir da vida, antes ouvir música e imaginar ter afecto e ver filmes românticos antigos e ter uma vida interna de fantasia do que andar metido com IA que nos rouba os dados e nos vende mrdas.
Finalmente ! Quando o parceiro estiver a aborrecer…é só fazer delete….sem divisão de bens e gritos :-). Depois é só escolher o próximo sem a dança do acasalamento 🙂 (nota: parceiro=masculino/feminino)
Uma senhora que previu o futuro!
https://www.youtube.com/watch?v=I4MPrVWesUY
Eventualmente, e se não houver algum tipo de legislação sobre a IA, a tendência será caminharmos para modelos de IA semelhantes ao do filme Her, com o Joaquin Phoenix e a Scarlett Johansson.
Quando vi o filme há uns anos, achei interessante e engraçado, mas parecia pura ficção. No entanto, hoje em dia estou cada vez mais convencido de que estamos a poucos anos de ter um produto exatamente igual.
Se isso é bom ou não? Só o tempo o dirá, mas gosto de ser positivo e ver as coisas pelo lado bom, e se bem implementado até pode ser algo positivo.
As criadoras de conteúdo OF que se ponham a pau!