Funcionário despede-se, alegando que a OpenAI esconde o impacto negativo da IA
Quatro fontes próximas afirmam que a OpenAI tornou-se hesitante relativamente à publicação de investigação sobre o potencial impacto negativo da Inteligência Artificial (IA). Um deles, Tom Cunningham, saiu inclusivamente da empresa.
Desde 2016, a OpenAI tem divulgado regularmente investigações sobre como os seus próprios sistemas poderiam remodelar o trabalho e partilhou dados com economistas externos.
Em 2023, co-editou "GPTs Are GPTs", um artigo amplamente citado que investigava quais setores provavelmente seriam mais vulneráveis à automação.
Segundo duas fontes, contudo, no último ano, a empresa ter-se-á tornado mais hesitante na divulgação de trabalhos que destacam as desvantagens económicas da IA, nomeadamente a perda de empregos, preferindo publicar resultados positivos.
Esta perceção de recuo contribuiu para a saída de pelo menos dois funcionários da equipa de investigação económica da empresa, nos últimos meses, de acordo com as mesmas quatro pessoas, que falaram com a WIRED sob condição de anonimato.
Após concluir que se tornou difícil publicar investigação de alta qualidade, um dos funcionários, Tom Cunningham, decidiu deixar a empresa, em setembro.
Numa mensagem de despedida partilhada internamente, este escreveu que a equipa enfrentava uma tensão crescente entre a realização de análises rigorosas e o funcionamento de uma espécie de braço de defesa da OpenAI.
OpenAI não reconhece recuo percebido pelos funcionários
Apesar desta perspetiva, que levou funcionários a abandonarem a empresa, a OpenAI assume-se empenhada na investigação económica.
O diretor de estratégia da OpenAI, Jason Kwon, abordou as preocupações partilhadas num memorando interno após a saída de Cunningham, argumentando que a empresa deve agir como um líder responsável no setor da IA e não deve apenas levantar problemas com a tecnologia: deve "construir as soluções".
O meu ponto de vista sobre assuntos difíceis não é que não devemos falar sobre eles. Em vez disso, como não somos apenas uma instituição de investigação, mas também um ator no mundo (o ator principal, na verdade) que coloca o tema da investigação no mundo, espera-se que assumamos a responsabilidade pelos resultados.
Defendeu o diretor de estratégia da OpenAI, no Slack.
Por sua vez, em declarações à revista norte-americana de tecnologia, o porta-voz da OpenAI, Rob Friedlander, disse que a empresa contratou o seu primeiro economista-chefe, Aaron Chatterji, no ano passado e, desde então, expandiu o âmbito da sua investigação económica.
A equipa de investigação económica realiza análises rigorosas que ajudam a OpenAI, os decisores políticos e o público a compreender como as pessoas estão a usar a IA e como ela está a moldar a economia em geral, incluindo onde estão a surgir benefícios e onde podem surgir impactos ou perturbações sociais à medida que a tecnologia evolui.
OpenAI favorece impacto da IA escondendo
A suposta mudança percebida pelos funcionários ocorre à medida que a OpenAI aprofunda as suas parcerias multimilionárias com empresas e governos, consolidando-se como um participante central na economia global.
Especialistas acreditam que a tecnologia que a OpenAI está a desenvolver pode transformar como as pessoas trabalham, embora ainda haja grandes dúvidas sobre quando essa mudança ocorrerá, e em que medida ela afetará as pessoas e os mercados globais.
Contudo, um economista externo, que trabalhou anteriormente com a empresa e falou sob condição de anonimato, alega que a OpenAI está cada vez mais a publicar trabalhos que apresentam a sua tecnologia sob um ângulo favorável.
Na semana passada, por exemplo, a OpenAI publicou um relatório no qual inquiriu utilizadores empresariais: estes afirmaram que os produtos de IA da empresa lhes pouparam em média 40 a 60 minutos por dia e que as empresas em toda a economia têm "margem significativa" para aumentar a adoção da IA.
De facto, esta não é a primeira vez que os investigadores da OpenAI levantam preocupações sobre o critério da empresa relativamente à publicação das suas investigações.
Quando o ex-chefe de investigação de políticas Miles Brundage deixou a OpenAI, em outubro de 2024, ele disse que a empresa se tinha tornado tão conhecida que era difícil para ele publicar sobre todos os tópicos que lhe eram importantes.
Além disso, acrescentou que, embora algumas restrições sejam esperadas, sentia que a OpenAI se tinha tornado muito restritiva, conforme recordado pelo WIRED.
Leia também:























Como vc venderia seu produto falando mal dele?
É como vender Whisky pedindo pra pessoa beber água que é mais saudável.
Repare no microfone da estação da TV…. Está explicado…
+1
hahaha… Eu entendi a referencia.
Sinceramente, acho que a automatização só levará a mais empregos, só que difrentes
Sinceramente, acho que a automatização só levará a mais empregos, só que difrentes
Ele tenta expressar os sentimentos não os negócios , coitadinho…