Inquérito revela: 66% dos gestores utiliza IA para decidir quem despedir…
A inteligência artificial (IA) está a assumir papéis do panorama laboral que vão muito além da automação de tarefas. Agora, a sua influência estende-se a decisões críticas no seio das empresas, nomeadamente no despedimento de pessoal.
IA é a nova conselheira dos gestores
A forma como a IA irá transformar o futuro do trabalho começa a revelar os seus primeiros sinais. Longe de se limitar a auxiliar programadores ou a conduzir entrevistas de emprego sob a forma de chatbots, a IA está a assumir um papel central na gestão de equipas, mas de uma maneira que poucos anteciparam.
Um inquérito realizado pela plataforma de serviços de emprego Resume Builder a 1342 gestores nos EUA revelou uma tendência surpreendente: os gestores estão a perguntar à IA quem devem despedir.
Os dados são claros: 60% dos inquiridos afirmam confiar na IA para tomar decisões de recursos humanos. Mais especificamente, 78% delegam na IA a decisão sobre quem recebe aumentos salariais, 77% usam-na para determinar promoções e 66% consultam-na para decidir sobre despedimentos.
Tendo em conta as capacidades atuais dos modelos de linguagem, delegar a gestão de talentos em sistemas genéricos pode ser uma aposta arriscada. Ainda assim:
- 53% dos gestores admitem perguntar ao ChatGPT quem despedir ou promover;
- 29% recorrem ao Copilot;
- 16% deixam o destino dos seus colaboradores nas mãos do Gemini.
Como acontece em muitas outras áreas de implementação tecnológica, a adoção da IA na gestão de pessoas está a ocorrer sem a devida preparação. Cerca de dois terços dos gestores que utilizam IA para uma tarefa tão delicada como a gestão de equipas não receberam qualquer tipo de formação para o seu uso. Apenas 32% afirmam ter recebido a formação necessária sobre a utilização ética da IA neste contexto.
Para agravar a situação, aproximadamente 20% dos gestores confessam permitir que a IA tenha a palavra final nas decisões sobre despedimentos ou promoções, sem qualquer intervenção humana. Contudo, a grande maioria manifesta-se disposta a intervir caso discorde da recomendação fornecida pela tecnologia.
O risco da falta de empatia
Stacie Haller, conselheira profissional da Resume Builder, alerta que é perigoso depositar o peso de decisões tão importantes na IA sem a formação adequada.
Embora a IA possa fornecer informações baseadas em dados, carece de contexto, empatia e discernimento.
Assinalam os autores do estudo. O principal problema de modelos de IA generalistas como o ChatGPT é que estes são, por natureza, concebidos para agradar ao utilizador.
Esta característica significa que, por mais que os gestores procurem objetividade, a IA tenderá a ter em conta as suas preferências pessoais, reforçando o seu viés de confirmação, mesmo que a escolha final não seja a mais benéfica para a empresa. A máquina pode, inadvertidamente, validar preconceitos existentes em vez de os eliminar.
O inquérito revelou também que 46% dos gestores que utilizam IA foram incumbidos de avaliar se esta tecnologia poderia substituir uma função até então desempenhada por um colaborador. Desses, 57% concluíram que a automatização era viável e 43% procederam à substituição.
Apesar de alguns postos de trabalho poderem estar em risco, muitos gestores veem a IA como uma ferramenta de apoio extremamente útil. Quase todos os inquiridos (97%) utilizam modelos de IA para criar materiais de formação, 94% para elaborar planos de desenvolvimento para os colaboradores e 91% para desenhar parâmetros de avaliação de desempenho ou para criar estratégias de melhoria.
Leia também:





















Mas até na Inteligência Artificial eles se apoiam para decidir quem é que querem despedir ?? Mas isto é o cúmulo. Mas que mundo é este ??
É preciso perceber o contexto, a minha empresa faz o mesmo mas construiu o próprio modelo de aprendizagem para beber das análises de performance e determinar os low performers com base em métricas, isto é apenas o método de triagem, depois é solicitado aos managers que tomem decisões sobre as suas equipas, com directores com mais de 1000 pessoas a seu cargo cada um precisas de ter formas de automatizar estas tarefas, igual para recrutamentos.
Empresas que não têm este nível de avanço em AI e não possuem integração de modelos LLM com performance reviews o que sei é que alimentam as AIs do mercado com ficheiros com KPIs e pedem ajuda à AI para trabalhar o ficheiro, basicamente algo que demorava um manager/director semanas a analisar passa a ser realizado em menos de 1h, e tendo os prompts afinados podem ou melhorar o modelo todos os anos.
Quem não se adapta a estas formas de trabalhar em pouco tempo vai ficar ineficiente e considerado low performer.
Grandes empresas sempre tiveram esta prática de despedir low performers, só já não se via nada disto desde a última crise porque o momentum global era crescente
Mais um que acredita no Pai Natal.
alguma vez trabalhaste com KPIs sob pressão? tipo call centers ou assim? KPIs foram feitos para não serem atingidos…
Lembro-me em tempos que tinhamos um KPI que os operadores de call center (de uma marca muito famosa no mundo da tecnologia) que o tempo médio da chamada de suporte não poderia ultrapassar os 5min….Isto para:
– Atender a chamada com standards da empresa;
– Fazer ficha de cliente (identificar o produto e respectivo SN);
– Perceber o problema
– Fazer troubleshooting;
– Activar a garantia ou orientar o cliente para o centro técnico.
Imagina atender pessoas com +60anos a mexer num menu do televisor…
Em todas as equipas dos paises quase todos…tinha esse KPI…e adivinha? Ninguém conseguia…Tinha prémio associado a esse KPI e ninguém recebia…
A minha questão é: Eramos todos low performers?
Não confundas método com as variáveis usadas na implementação desse mesmo método. O Zé Fonseca explicou o método usado na empresa onde trabalha. Não falou dos valores atribuidos a essas mesmas variáveis. No teu exemplo, o problema não advém do método, mas sim dos valores atribuídos aos KPI.
call centers não são exemplo para nada..
seja como for, isso é má gestão, se um KPI não é passível de ser atingido tem de ser alterado ou removido
Apoiado. Concordo. Mas a esmagadora maioria da miudagem que por aqui comenta, acha o contrário. Não admira, também acham que a peixe e a carne são feitos em “fábricas”. Esta gente nunca viu um martelo, uma fresadora, uma bigorna, um tear, uma rede de emalhar, …
Se ninguém mete um travão a isto, vamos cair todos.
Podiam usar a mesma metodologia no para-lamento. Há para ali de-putedos que não fazem falta nenhuma!
não concordo, se há possibilidade de vermos deptados a chorar como tem acontecido até acho que devíamos por mais, pelo menos dá para rirmos
Nada de novo no mundo capitalista. Com a chegada da IA vai ser um prato cheio, nem olham a meios para atingir os fins, parecem os guardas de inglaterra, sempre a direito.
A questão aqui são os pseudo gestores e os pseudo legisladores:
– estão todos a tomar café e a falar ao telemóvel com a família ou negócios que nada têm relação com a empresa
– como já não sabiam o que fazer, os pseudo gestores metem AI para demonstrar que trabalham melhor e justificar o trabalho
– os pseudo legisladores até começarem a ver amigos e familiares a cair como tordos, ou sair num jornal sensacionalista, fazem de conta que está tudo bem. Afinal estamos a copiar os EUA e somos capitalistas. Ou não?
Agora quando os acionistas ou socios disserem que os pseudo gestores também devem cair no filtro da AI e virem que eles não fazem um c.r.lho, depois aí vão-se queixar.