Pplware

OpenAI, mãe do ChatGPT, dissolve equipa dedicada aos riscos da IA a longo prazo

O público está ciente dos riscos e das potencialidades da Inteligência Artificial (IA). De algumas pelo menos, pois as implicações reais são um tanto desconhecidas, estando apenas as empresas conscientes do que vão desenvolvendo (à partida). Apesar disto, um ano após ter criado uma equipa dedicada aos riscos da tecnologia a longo prazo, a OpenAI dissolveu-a.


De acordo com uma pessoa familiarizada com o assunto, citada pela CNBC, a OpenAI dissolveu a sua equipa focada nos riscos a longo prazo da IA, apenas um ano após a empresa ter anunciado o grupo. A pessoa, que falou sob condição de anonimato, disse que alguns dos membros da equipa estão a ser transferidos para várias outras equipas dentro da empresa.

A notícia, divulgada pela primeira vez pela Wired, surge dias depois de ambos os líderes de equipa – o cofundador da OpenAI, Ilya Sutskever, e Jan Leike – terem anunciado a sua saída da empresa. Na sexta-feira, este último escreveu que a “cultura e processos de segurança da OpenAI ficaram em segundo plano em relação a produtos «shiny»”.

A equipa Superalignment da OpenAI, anunciada no ano passado, concentrou-se em “avanços mais inteligentes do que nós”. Na altura, a OpenAI disse que direcionaria 20% do seu poder de computação para a iniciativa ao longo de quatro anos – o que parece não ter acontecido, pela falta de meios relatada.

A OpenAI não forneceu um comentário e, em vez disso, direcionou a CNBC para o post recente do cofundador e diretor-executivo, Sam Altman, no X, onde ele partilhou que estava triste por ver Leike sair e que a empresa tinha mais trabalho a fazer:

No sábado, o cofundador da OpenAI, Greg Brockman, declarou que a empresa “aumentou a consciencialização sobre os riscos e oportunidades da Inteligência Artificial Geral (em inglês, AGI) para que o mundo possa preparar-se melhor para isso”.

Após o anúncio da saída, Jan Leike escreveu, também no X, que entrou na OpenAI, porque pensou que a empresa seria o melhor lugar do mundo para fazer investigação.

No entanto, tenho discordado da liderança da OpenAI sobre as principais prioridades da empresa há algum tempo, até que finalmente chegamos a um ponto de rutura.

Escreveu Leike, alegando acreditar que a empresa deveria focar-se consideravelmente mais na segurança, proteção, monitorização e impacto social.

Construir máquinas mais inteligentes do que os humanos é um esforço inerentemente perigoso. A OpenAI está a assumir uma enorme responsabilidade em nome de toda a humanidade.

Mas, nos últimos anos, a cultura e os processos de segurança ficaram em segundo plano relativamente a produtos “shiny”.

Para Leike, a OpenAI tem de se tornar uma “empresa de AGI que dá prioridade à segurança”.

 

Leia também:

Exit mobile version