Uma sugestão de um diretor da Xbox, após uma vaga de despedimentos, gerou uma onda de controvérsia online. A proposta? Que os trabalhadores afetados recorressem à inteligência artificial (IA) para obter apoio emocional!
Diretor da Xbox sugere usar IA como apoio
Após a Microsoft ter anunciado uma reestruturação que resultou no despedimento de milhares de trabalhadores, incluindo pessoal da Xbox, um diretor executivo decidiu partilhar o que considerou ser “o melhor conselho” para os afetados. Na sua perspetiva, a IA generativa poderia ser uma ferramenta útil para gerir o fardo emocional associado à perda de um emprego.
Numa publicação na sua página de LinkedIn, Matt Turnbull, produtor executivo na Xbox Game Studios, sugeriu que os colaboradores dispensados se apoiassem em ferramentas como o Copilot ou o ChatGPT para lidar com a situação. Turnbull afirmou que “seria negligente” da sua parte não tentar oferecer o melhor aconselhamento possível perante as circunstâncias.
Em vez de focar numa mensagem de empatia ou de assumir uma posição de responsabilidade enquanto líder na Xbox, Turnbull optou por uma abordagem pragmática: sugeriu prompts específicos para o ChatGPT e o Copilot. O diretor demonstrou acreditar que, nestes “tempos desafiantes”, a IA generativa pode ajudar a mitigar os efeitos negativos de um despedimento.
Estes são tempos verdadeiramente desafiantes e, se está a passar por um despedimento ou mesmo a preparar-se silenciosamente para um, não está sozinho e não tem de o fazer sozinho. Sei que este tipo de ferramentas gera sentimentos fortes nas pessoas, mas seria negligente se não tentasse oferecer o melhor conselho que posso, dadas as circunstâncias. Tenho experimentado formas de usar as ferramentas de IA […] para ajudar a reduzir a carga emocional e cognitiva que advém da perda de emprego.
A publicação não foi bem recebida… Gerou um tsunami de reações negativas que levaram à sua rápida eliminação do LinkedIn. Mais do que um gesto de apoio, os conselhos de Turnbull foram vistos como uma tentativa de deitar mais lenha para a fogueira. Vários críticos salientaram a ironia da situação, apontando a própria IA como um dos fatores que terá contribuído para a decisão da Microsoft.
Uma solução viável ou um perigo?
Por mais insensível que a sugestão de Turnbull possa parecer, a verdade é que a sua premissa não é totalmente descabida. Na sua publicação, o diretor incluía instruções claras sobre como pedir ao ChatGPT para ajudar a ultrapassar um momento difícil, ressalvando que nenhuma IA substitui a experiência humana, mas que pode ser um auxílio importante numa fase em que a energia mental é escassa.
Apesar do timing e da abordagem serem altamente criticáveis, um número crescente de utilizadores já recorre a modelos de linguagem como “psicólogos pessoais”. Estas ferramentas podem oferecer conselhos estruturados em momentos de crise, aliviando o peso emocional antes de se procurar ajuda profissional.
Contudo, esta é uma faca de dois gumes, uma vez que não é recomendado usar o Gemini ou o ChatGPT como substitutos de um especialista em saúde mental.
Embora as IAs consigam simular empatia com uma eficácia surpreendente, carecem da capacidade de compreender genuinamente o sofrimento humano. Delegar a introspeção pessoal a um chatbot pode, a longo prazo, causar mais danos do que benefícios, um perigo sobre o qual empresas como a OpenAI e a Google já alertaram.
Leia também: